par city96
Open source · 57k downloads · 288 likes
Qwen Image GGUF est une version optimisée du modèle Qwen-Image, conçue pour fonctionner efficacement dans des environnements à ressources limitées grâce à sa conversion en format GGUF. Ce modèle excelle dans la génération et l'analyse d'images, offrant des capacités avancées pour comprendre et produire du contenu visuel à partir de descriptions textuelles ou de prompts. Il est particulièrement adapté aux workflows créatifs, comme la génération d'images artistiques, l'édition visuelle ou l'assistance à la conception, grâce à son intégration fluide avec des outils comme ComfyUI. Ce qui le distingue, c'est sa capacité à maintenir des performances remarquables même avec des quantifications très basses (comme Q2_K), grâce à une méthode dynamique préservant la précision des couches critiques. Idéal pour les utilisateurs cherchant un équilibre entre qualité, rapidité et accessibilité, il reste soumis aux mêmes restrictions et licences que le modèle original.
This is a direct GGUF conversion of Qwen/Qwen-Image.
The model files can be used in ComfyUI with the ComfyUI-GGUF custom node. Place the required model(s) in the following folders:
| Type | Name | Location | Download |
|---|---|---|---|
| Main Model | Qwen-Image | ComfyUI/models/diffusion_models | GGUF (this repo) |
| Text Encoder | Qwen2.5-VL-7B | ComfyUI/models/text_encoders | Safetensors / GGUF |
| VAE | Qwen-Image VAE | ComfyUI/models/vae | Safetensors |
Example outputs - sample size of 1, not strictly representative

[!NOTE] The Q5_K_M, Q4_K_M and most importantly the low bitrate quants (Q3_K_M, Q3_K_S, Q2_K) use a new dynamic logic where the first/last layer is kept in high precision.
For a comparison, see this imgsli page. With this method, even Q2_K remains somewhat usable.
As this is a quantized model not a finetune, all the same restrictions/original license terms still apply.