par unsloth
Open source · 365k downloads · 22 likes
Le modèle Mistral 7B v0.3 en version 4-bit quantifiée (bnb) est une version optimisée du modèle Mistral 7B, conçue pour être fine-tunée et déployée plus efficacement. Il permet d'entraîner des modèles de langage sur des tâches spécifiques avec une consommation mémoire réduite de 70 % et une accélération jusqu'à 5 fois par rapport aux méthodes classiques, tout en restant accessible aux débutants. Grâce à des notebooks conviviaux, il facilite la personnalisation pour des cas d'usage variés comme les assistants conversationnels, la génération de texte ou l'alignement de modèles via des techniques comme DPO. Ce modèle se distingue par sa rapidité d'exécution et sa légèreté, tout en conservant les performances du modèle de base, ce qui le rend idéal pour des déploiements locaux ou sur des ressources limitées.
We have a Google Colab Tesla T4 notebook for Mistral v3 7b here: https://colab.research.google.com/drive/1_yNCks4BTD5zOnjozppphh5GzMFaMKq_?usp=sharing
For conversational ShareGPT style and using Mistral v3 Instruct: https://colab.research.google.com/drive/15F1xyn8497_dUbxZP4zWmPZ3PJx1Oymv?usp=sharing
All notebooks are beginner friendly! Add your dataset, click "Run All", and you'll get a 2x faster finetuned model which can be exported to GGUF, vLLM or uploaded to Hugging Face.
| Unsloth supports | Free Notebooks | Performance | Memory use |
|---|---|---|---|
| Llama-3.2 (3B) | ▶️ Start on Colab | 2.4x faster | 58% less |
| Llama-3.2 (11B vision) | ▶️ Start on Colab | 2x faster | 60% less |
| Llama-3.1 (8B) | ▶️ Start on Colab | 2.4x faster | 58% less |
| Qwen2 VL (7B) | ▶️ Start on Colab | 1.8x faster | 60% less |
| Qwen2.5 (7B) | ▶️ Start on Colab | 2x faster | 60% less |
| Phi-3.5 (mini) | ▶️ Start on Colab | 2x faster | 50% less |
| Gemma 2 (9B) | ▶️ Start on Colab | 2.4x faster | 58% less |
| Mistral (7B) | ▶️ Start on Colab | 2.2x faster | 62% less |
| DPO - Zephyr | ▶️ Start on Colab | 1.9x faster | 19% less |