AI/EXPLORER
OutilsCatégoriesSitesLLMsComparerQuiz IAAlternativesPremium
—Outils IA
—Sites & Blogs
—LLMs & Modèles
—Catégories
AI Explorer

Trouvez et comparez les meilleurs outils d'intelligence artificielle pour vos projets.

Fait avecen France

Explorer

  • ›Tous les outils
  • ›Sites & Blogs
  • ›LLMs & Modèles
  • ›Comparer
  • ›Chatbots
  • ›Images IA
  • ›Code & Dev

Entreprise

  • ›Premium
  • ›À propos
  • ›Contact
  • ›Blog

Légal

  • ›Mentions légales
  • ›Confidentialité
  • ›CGV

© 2026 AI Explorer·Tous droits réservés.

AccueilLLMsLlama 3.2 1B Instruct Q8 0 GGUF

Llama 3.2 1B Instruct Q8 0 GGUF

par hugging-quants

Open source · 848k downloads · 46 likes

2.1
(46 avis)ChatAPI & Local
À propos

Le modèle Llama 3.2 1B Instruct Q8 0 GGUF est une version optimisée et quantifiée du modèle Llama 3.2 1B Instruct, spécialement conçue pour fonctionner efficacement sur des ressources limitées. Il excelle dans la compréhension et la génération de texte en suivant des instructions précises, ce qui le rend idéal pour des tâches comme l'assistance conversationnelle, la réponse à des questions ou la génération de contenu structuré. Grâce à sa taille réduite et sa quantification, il offre un bon compromis entre performance et consommation de ressources, tout en conservant une qualité de réponse élevée. Ce modèle se distingue par sa capacité à s'adapter à des environnements où les ressources matérielles sont contraintes, tout en restant performant pour des applications variées.

Documentation

hugging-quants/Llama-3.2-1B-Instruct-Q8_0-GGUF

This model was converted to GGUF format from meta-llama/Llama-3.2-1B-Instruct using llama.cpp via the ggml.ai's GGUF-my-repo space. Refer to the original model card for more details on the model.

Use with llama.cpp

Install llama.cpp through brew (works on Mac and Linux)

Bash
brew install llama.cpp

Invoke the llama.cpp server or the CLI.

CLI:

Bash
llama-cli --hf-repo hugging-quants/Llama-3.2-1B-Instruct-Q8_0-GGUF --hf-file llama-3.2-1b-instruct-q8_0.gguf -p "The meaning to life and the universe is"

Server:

Bash
llama-server --hf-repo hugging-quants/Llama-3.2-1B-Instruct-Q8_0-GGUF --hf-file llama-3.2-1b-instruct-q8_0.gguf -c 2048

Note: You can also use this checkpoint directly through the usage steps listed in the Llama.cpp repo as well.

Step 1: Clone llama.cpp from GitHub.

Bash
git clone https://github.com/ggerganov/llama.cpp

Step 2: Move into the llama.cpp folder and build it with LLAMA_CURL=1 flag along with other hardware-specific flags (for ex: LLAMA_CUDA=1 for Nvidia GPUs on Linux).

INI
cd llama.cpp && LLAMA_CURL=1 make

Step 3: Run inference through the main binary.

CSS
./llama-cli --hf-repo hugging-quants/Llama-3.2-1B-Instruct-Q8_0-GGUF --hf-file llama-3.2-1b-instruct-q8_0.gguf -p "The meaning to life and the universe is"

or

CSS
./llama-server --hf-repo hugging-quants/Llama-3.2-1B-Instruct-Q8_0-GGUF --hf-file llama-3.2-1b-instruct-q8_0.gguf -c 2048
Liens & Ressources
Spécifications
CatégorieChat
AccèsAPI & Local
LicenceOpen Source
TarificationOpen Source
Paramètres1B parameters
Note
2.1

Essayer Llama 3.2 1B Instruct Q8 0 GGUF

Accédez directement au modèle