AI ExplorerAI Explorer
OutilsCatégoriesSitesLLMsComparerQuiz IAAlternativesPremium

—

Outils IA

—

Sites & Blogs

—

LLMs & Modèles

—

Catégories

AI Explorer

Trouvez et comparez les meilleurs outils d'intelligence artificielle pour vos projets.

Fait avecen France

Explorer

  • Tous les outils
  • Sites & Blogs
  • LLMs & Modèles
  • Comparer
  • Chatbots
  • Images IA
  • Code & Dev

Entreprise

  • Premium
  • À propos
  • Contact
  • Blog

Légal

  • Mentions légales
  • Confidentialité
  • CGV

© 2026 AI Explorer. Tous droits réservés.

AccueilLLMsllama 3.3 70b instruct awq

llama 3.3 70b instruct awq

par casperhansen

Open source · 300k downloads · 42 likes

2.0
(42 avis)ChatAPI & Local
À propos

Le modèle Llama 3.3 70B Instruct AWQ est une version optimisée du grand modèle de langage développé par Meta, spécialement conçu pour les interactions conversationnelles multilingues. Grâce à des techniques d'affinage par apprentissage supervisé et par renforcement avec feedback humain, il excelle dans la génération de réponses naturelles, utiles et sûres, tout en surpassant de nombreux modèles open source et propriétaires sur les benchmarks standards. Il prend en charge huit langues majeures, dont l'anglais, le français, l'espagnol et l'allemand, ce qui le rend particulièrement adapté aux applications nécessitant une compréhension linguistique étendue. Ce modèle se distingue par son architecture optimisée pour l'efficacité, permettant des inférences rapides même à grande échelle, tout en maintenant une haute qualité de sortie. Idéal pour les assistants virtuels, les outils d'analyse textuelle ou les systèmes de support client, il offre un équilibre entre performance et accessibilité pour les entreprises et les développeurs.

Documentation

This is the AWQ version of the Llama 3.3 70B Instruct model. Find more info here: https://github.com/casper-hansen/AutoAWQ.

Model Information

The Meta Llama 3.3 multilingual large language model (LLM) is a pretrained and instruction tuned generative model in 70B (text in/text out). The Llama 3.3 instruction tuned text only model is optimized for multilingual dialogue use cases and outperform many of the available open source and closed chat models on common industry benchmarks.

Model developer: Meta

Model Architecture: Llama 3.3 is an auto-regressive language model that uses an optimized transformer architecture. The tuned versions use supervised fine-tuning (SFT) and reinforcement learning with human feedback (RLHF) to align with human preferences for helpfulness and safety.

Training DataParamsInput modalitiesOutput modalitiesContext lengthGQAToken countKnowledge cutoff
Llama 3.3 (text only)A new mix of publicly available online data.70BMultilingual TextMultilingual Text and code128kYes15T+December 2023

Supported languages: English, German, French, Italian, Portuguese, Hindi, Spanish, and Thai.

Llama 3.3 model. Token counts refer to pretraining data only. All model versions use Grouped-Query Attention (GQA) for improved inference scalability.

Model Release Date:

  • 70B Instruct: December 6, 2024

Status: This is a static model trained on an offline dataset. Future versions of the tuned models will be released as we improve model safety with community feedback.

License A custom commercial license, the Llama 3.3 Community License Agreement, is available at: https://github.com/meta-llama/llama-models/blob/main/models/llama3_3/LICENSE

Where to send questions or comments about the model Instructions on how to provide feedback or comments on the model can be found in the model README. For more technical information about generation parameters and recipes for how to use Llama 3.3 in applications, please go here.

Benchmark

CategoryBenchmark# ShotsMetricLlama 3.1 8B InstructLlama 3.1 70B InstructLlama-3.3 70B InstructLlama 3.1 405B Instruct
MMLU (CoT)0macro_avg/acc73.086.086.088.6
MMLU Pro (CoT)5macro_avg/acc48.366.468.973.3
SteerabilityIFEval80.487.592.188.6
ReasoningGPQA Diamond (CoT)0acc31.848.050.549.0
CodeHumanEval0pass@172.680.588.489.0
MBPP EvalPlus (base)0pass@172.886.087.688.6
MathMATH (CoT)0sympy_intersection_score51.968.077.073.8
Tool UseBFCL v20overall_ast_summary/macro_avg/valid65.477.577.381.1
MultilingualMGSM0em68.986.991.191.6
Liens & Ressources
Spécifications
CatégorieChat
AccèsAPI & Local
LicenceOpen Source
TarificationOpen Source
Paramètres70B parameters
Note
2.0

Essayer llama 3.3 70b instruct awq

Accédez directement au modèle