all options
forky  ] [  sid  ]
[ Source: llama.cpp  ]

Package: llama.cpp-examples (5882+dfsg-3)

Links for llama.cpp-examples

Screenshot

Debian Resources:

Download Source Package llama.cpp:

Maintainers:

External Resources:

Similar packages:

LLM-inferens i C/C++ - eksempelprogrammer

Hovedformålet med llama.cpp er at gøre LLM-inferens mulig med minimal opsætning og moderne ydelse på en bred vifte af udstyr - lokalt og i skyen.

 * Ren C/C++-implementering uden nogen afhængigheder
 * Apple silicon er en førsteklasses borger - optimeret via ARM NEON,
   Accelerate og Metal-rammer
 * Understøttelse af AVX, AVX2, AVX512 og AMX for x86-arkitekturer
 * 1.5-bit, 2-bit, 3-bit, 4-bit, 5-bit, 6-bit og 8-bit heltalskvantisering
   for hurtigere inferens og reduceret hukommelsesforbrug
 * Egne CUDA-kerne til afvikling af LLM'er på NVIDIA GPU'er (understøttelse
   for AMD GPU'er via HIP og Moore Threads MiT GPU'er via MUSA)
 * Understøttelse for Vulkan- og SYCL-motor
 * CPU+GPU hybrid-inferens til delvist at accelerere modeller større end
   den samlede VRAM-kapacitet

Beregningsfunktionaliteten er tilbudt af ggml. Som standard installeres Ggmls' cpu-motor, men der er mange andre motorer for cpu'er og gpu'er.

Denne pakke indeholder redskaber, som opstrøm sender som eksempler.

Other Packages Related to llama.cpp-examples

  • depends
  • recommends
  • suggests
  • enhances

Download llama.cpp-examples

Download for all available architectures
Architecture Package Size Installed Size Files
amd64 2,866.7 kB27,617.0 kB [list of files]
arm64 2,520.3 kB26,377.0 kB [list of files]
ppc64el 2,526.7 kB31,305.0 kB [list of files]
riscv64 2,738.2 kB24,037.0 kB [list of files]
s390x 2,562.5 kB28,437.0 kB [list of files]