AI ExplorerAI Explorer
OutilsCatégoriesSitesLLMsComparerQuiz IAAlternativesPremium

—

Outils IA

—

Sites & Blogs

—

LLMs & Modèles

—

Catégories

AI Explorer

Trouvez et comparez les meilleurs outils d'intelligence artificielle pour vos projets.

Fait avecen France

Explorer

  • Tous les outils
  • Sites & Blogs
  • LLMs & Modèles
  • Comparer
  • Chatbots
  • Images IA
  • Code & Dev

Entreprise

  • Premium
  • À propos
  • Contact
  • Blog

Légal

  • Mentions légales
  • Confidentialité
  • CGV

© 2026 AI Explorer. Tous droits réservés.

AccueilLLMsQwen3 14B Base

Qwen3 14B Base

par Qwen

Open source · 108k downloads · 51 likes

2.1
(51 avis)ChatAPI & Local
À propos

Qwen3 14B Base est un modèle de langage avancé développé par l'équipe Qwen, conçu pour exceller dans une multitude de tâches grâce à une architecture optimisée et un entraînement approfondi. Ce modèle de 14,8 milliards de paramètres, entraîné sur 36 000 milliards de tokens couvrant 119 langues, se distingue par sa capacité à traiter des contextes longs jusqu'à 32 000 tokens, ce qui le rend particulièrement adapté aux applications nécessitant une compréhension étendue. Ses performances sont renforcées par des techniques d'entraînement innovantes, comme un équilibrage global des lots pour les modèles de type MoE et des améliorations architecturales, lui permettant de surpasser son prédécesseur, Qwen2.5, dans des domaines variés tels que le raisonnement logique, les sciences, la programmation et la compréhension multilingue. Idéal pour les développeurs, chercheurs ou entreprises cherchant un outil polyvalent, il s'intègre facilement dans des pipelines d'IA pour automatiser des tâches complexes ou générer du contenu précis. Son approche en trois étapes d'entraînement, combinée à des ajustements hyperparamétriques guidés par des lois d'échelle, garantit une efficacité et une stabilité accrues, faisant de lui un choix robuste pour des applications professionnelles ou académiques.

Documentation

Qwen3-14B-Base

Qwen3 Highlights

Qwen3 is the latest generation of large language models in Qwen series, offering a comprehensive suite of dense and mixture-of-experts (MoE) models. Building upon extensive advancements in training data, model architecture, and optimization techniques, Qwen3 delivers the following key improvements over the previously released Qwen2.5:

  • Expanded Higher-Quality Pre-training Corpus: Qwen3 is pre-trained on 36 trillion tokens across 119 languages — tripling the language coverage of Qwen2.5 — with a much richer mix of high-quality data, including coding, STEM, reasoning, book, multilingual, and synthetic data.
  • Training Techniques and Model Architecture: Qwen3 incorporates a series of training techiques and architectural refinements, including global-batch load balancing loss for MoE models and qk layernorm for all models, leading to improved stability and overall performance.
  • Three-stage Pre-training: Stage 1 focuses on broad language modeling and general knowledge acquisition, Stage 2 improves reasoning skills like STEM, coding, and logical reasoning, and Stage 3 enhances long-context comprehension by extending training sequence lengths up to 32k tokens.
  • Scaling Law Guided Hyperparameter Tuning: Through comprehensive scaling law studies across the three-stage pre-training pipeline, Qwen3 systematically tunes critical hyperparameters — such as learning rate scheduler and batch size — separately for dense and MoE models, resulting in better training dynamics and final performance across different model scales.

Model Overview

Qwen3-14B-Base has the following features:

  • Type: Causal Language Models
  • Training Stage: Pretraining
  • Number of Parameters: 14.8B
  • Number of Paramaters (Non-Embedding): 13.2B
  • Number of Layers: 40
  • Number of Attention Heads (GQA): 40 for Q and 8 for KV
  • Context Length: 32,768

For more details, including benchmark evaluation, hardware requirements, and inference performance, please refer to our blog, GitHub, and Documentation.

Requirements

The code of Qwen3 has been in the latest Hugging Face transformers and we advise you to use the latest version of transformers.

With transformers<4.51.0, you will encounter the following error:

VB.NET
KeyError: 'qwen3'

Evaluation & Performance

Detailed evaluation results are reported in this 📑 blog.

Citation

If you find our work helpful, feel free to give us a cite.

INI
@misc{qwen3technicalreport,
      title={Qwen3 Technical Report}, 
      author={Qwen Team},
      year={2025},
      eprint={2505.09388},
      archivePrefix={arXiv},
      primaryClass={cs.CL},
      url={https://arxiv.org/abs/2505.09388}, 
}
Liens & Ressources
Spécifications
CatégorieChat
AccèsAPI & Local
LicenceOpen Source
TarificationOpen Source
Paramètres14B parameters
Note
2.1

Essayer Qwen3 14B Base

Accédez directement au modèle