AI/EXPLORER
OutilsCatégoriesSitesLLMsComparerQuiz IAAlternativesPremium
—Outils IA
—Sites & Blogs
—LLMs & Modèles
—Catégories
AI Explorer

Trouvez et comparez les meilleurs outils d'intelligence artificielle pour vos projets.

Fait avecen France

Explorer

  • ›Tous les outils
  • ›Sites & Blogs
  • ›LLMs & Modèles
  • ›Comparer
  • ›Chatbots
  • ›Images IA
  • ›Code & Dev

Entreprise

  • ›Premium
  • ›À propos
  • ›Contact
  • ›Blog

Légal

  • ›Mentions légales
  • ›Confidentialité
  • ›CGV

© 2026 AI Explorer·Tous droits réservés.

AccueilLLMsQwen3 Embedding 4B W4A16 G128

Qwen3 Embedding 4B W4A16 G128

par boboliu

Open source · 190k downloads · 5 likes

1.0
(5 avis)EmbeddingAPI & Local
À propos

Le modèle Qwen3 Embedding 4B W4A16 G128 est une version optimisée et quantifiée du modèle Qwen3-Embedding-4B, spécialement conçue pour réduire l'empreinte mémoire tout en conservant des performances élevées. Il est adapté à des tâches d'embeddings textuels, permettant de transformer des textes en vecteurs numériques exploitables pour des applications comme la recherche d'information, la classification ou la similarité sémantique. Grâce à sa quantification avancée, il offre un bon compromis entre efficacité et précision, avec une légère perte de performance évaluée à environ 0,72 % sur des benchmarks standards. Ce modèle se distingue par sa capacité à fonctionner avec des ressources matérielles limitées, réduisant significativement l'utilisation de la VRAM par rapport à la version originale. Il est particulièrement utile pour les développeurs cherchant à déployer des solutions d'IA embarquées ou à grande échelle sans sacrifier la qualité des résultats.

Documentation

Qwen3-Embedding-4B-W4A16-G128

GPTQ Quantized Qwen/Qwen3-Embedding-4B with THUIR/T2Ranking and m-a-p/COIG-CQIA for calibration set.

What's the benefit?

VRAM Usage: 17430M -> 11000M (w/o FA2).

What's the cost?

~0.72% lost in C-MTEB.

Evaluation performed with official code.

C-MTEBParam.Mean(Task)Mean(Type)Class.Clust.Pair Class.Rerank.Retr.STS
multilingual-e5-large-instruct0.6B58.0858.2469.8048.2364.5257.4563.6545.81
bge-multilingual-gemma29B67.6468.5275.3159.3086.6768.2873.7355.19
gte-Qwen2-1.5B-instruct1.5B67.1267.7972.5354.6179.568.2171.8660.05
gte-Qwen2-7B-instruct7.6B71.6272.1975.7766.0681.1669.2475.7065.20
ritrieve_zh_v10.3B72.7173.8576.8866.585.9872.8676.9763.92
Qwen3-Embedding-4B4B72.2773.5175.4677.8983.3466.0577.0361.26
This Model4B-W4A1671.7573.0575.4377.5183.0465.7376.1560.47

How to use it?

pip install compressed-tensors optimum and auto-gptq / gptqmodel, then goto the official usage guide.

Liens & Ressources
Spécifications
CatégorieEmbedding
AccèsAPI & Local
LicenceOpen Source
TarificationOpen Source
Paramètres4B parameters
Note
1.0

Essayer Qwen3 Embedding 4B W4A16 G128

Accédez directement au modèle