AI/EXPLORER
OutilsCatégoriesSitesLLMsComparerQuiz IAAlternativesPremium
—Outils IA
—Sites & Blogs
—LLMs & Modèles
—Catégories
AI Explorer

Trouvez et comparez les meilleurs outils d'intelligence artificielle pour vos projets.

Fait avecen France

Explorer

  • ›Tous les outils
  • ›Sites & Blogs
  • ›LLMs & Modèles
  • ›Comparer
  • ›Chatbots
  • ›Images IA
  • ›Code & Dev

Entreprise

  • ›Premium
  • ›À propos
  • ›Contact
  • ›Blog

Légal

  • ›Mentions légales
  • ›Confidentialité
  • ›CGV

© 2026 AI Explorer·Tous droits réservés.

AccueilLLMsChatgpt oss 20b MXFP4 Q8

gpt oss 20b MXFP4 Q8

par mlx-community

Open source · 598k downloads · 51 likes

2.1
(51 avis)ChatAPI & Local
À propos

Ce modèle, gpt-oss-20b MXFP4 Q8, est une version optimisée et convertie du modèle openai/gpt-oss-20b, spécialement adaptée pour fonctionner avec la bibliothèque MLX. Il excelle dans la génération de texte, la compréhension contextuelle et les tâches de traitement du langage naturel, offrant des performances élevées tout en restant accessible sur des configurations matérielles variées. Ses principaux cas d'usage incluent la rédaction assistée, l'analyse de données textuelles, la création de contenu et les applications conversationnelles. Ce qui le distingue, c'est son format quantifié (MXFP4 Q8), qui permet une exécution efficace avec une consommation mémoire réduite, sans sacrifier la qualité des réponses. Idéal pour les développeurs et chercheurs cherchant un équilibre entre puissance et accessibilité.

Documentation

mlx-community/gpt-oss-20b-MXFP4-Q8

This model mlx-community/gpt-oss-20b-MXFP4-Q8 was converted to MLX format from openai/gpt-oss-20b using mlx-lm version 0.27.0.

Use with mlx

Bash
pip install mlx-lm
Python
from mlx_lm import load, generate

model, tokenizer = load("mlx-community/gpt-oss-20b-MXFP4-Q8")

prompt = "hello"

if tokenizer.chat_template is not None:
    messages = [{"role": "user", "content": prompt}]
    prompt = tokenizer.apply_chat_template(
        messages, add_generation_prompt=True
    )

response = generate(model, tokenizer, prompt=prompt, verbose=True)
Liens & Ressources
Spécifications
CatégorieChat
AccèsAPI & Local
LicenceOpen Source
TarificationOpen Source
Paramètres20B parameters
Note
2.1

Essayer gpt oss 20b MXFP4 Q8

Accédez directement au modèle