par MaziyarPanahi
Open source · 153k downloads · 7 likes
Le modèle Qwen3 1.7B GGUF est une version optimisée du modèle Qwen3-1.7B, conçue pour fonctionner localement avec une grande efficacité grâce au format GGUF. Il excelle dans la compréhension et la génération de texte, offrant des réponses précises et contextuelles pour une variété de tâches, comme la rédaction, l'analyse ou les conversations interactives. Ses principaux atouts résident dans sa légèreté et sa compatibilité avec de nombreux outils locaux, ce qui le rend accessible même sur des machines modestes. Idéal pour les développeurs ou les utilisateurs souhaitant exploiter une IA performante sans dépendre du cloud, il se distingue par sa flexibilité et son intégration facile dans des environnements variés.
MaziyarPanahi/Qwen3-1.7B-GGUF contains GGUF format model files for Qwen/Qwen3-1.7B.
GGUF is a new format introduced by the llama.cpp team on August 21st 2023. It is a replacement for GGML, which is no longer supported by llama.cpp.
Here is an incomplete list of clients and libraries that are known to support GGUF:
🙏 Special thanks to Georgi Gerganov and the whole team working on llama.cpp for making all of this possible.