par MaziyarPanahi
Open source · 151k downloads · 7 likes
Le modèle Qwen3 4B GGUF est une version optimisée du modèle Qwen3-4B, conçue pour fonctionner localement sur des appareils grand public grâce au format GGUF. Il excelle dans la compréhension et la génération de texte en temps réel, offrant des réponses fluides et contextuelles pour des tâches variées comme la rédaction, la traduction ou l'analyse de documents. Ses principaux atouts résident dans sa légèreté et son efficacité, permettant une exécution rapide même sur des machines modestes, tout en conservant une qualité de réponse élevée. Idéal pour les développeurs, chercheurs ou utilisateurs souhaitant une alternative locale aux solutions cloud, il se distingue par sa polyvalence et son intégration facile dans divers environnements logiciels.
MaziyarPanahi/Qwen3-4B-GGUF contains GGUF format model files for Qwen/Qwen3-4B.
GGUF is a new format introduced by the llama.cpp team on August 21st 2023. It is a replacement for GGML, which is no longer supported by llama.cpp.
Here is an incomplete list of clients and libraries that are known to support GGUF:
🙏 Special thanks to Georgi Gerganov and the whole team working on llama.cpp for making all of this possible.