AI/EXPLORER
OutilsCatégoriesSitesLLMsComparerQuiz IAAlternativesPremium
—Outils IA
—Sites & Blogs
—LLMs & Modèles
—Catégories
AI Explorer

Trouvez et comparez les meilleurs outils d'intelligence artificielle pour vos projets.

Fait avecen France

Explorer

  • ›Tous les outils
  • ›Sites & Blogs
  • ›LLMs & Modèles
  • ›Comparer
  • ›Chatbots
  • ›Images IA
  • ›Code & Dev

Entreprise

  • ›Premium
  • ›À propos
  • ›Contact
  • ›Blog

Légal

  • ›Mentions légales
  • ›Confidentialité
  • ›CGV

© 2026 AI Explorer·Tous droits réservés.

AccueilLLMsZ Image Turbo SDNQ int8

Z Image Turbo SDNQ int8

par Disty0

Open source · 5k downloads · 19 likes

1.6
(19 avis)ImageAPI & Local
À propos

Z Image Turbo SDNQ int8 est une version optimisée et quantifiée en 8 bits du modèle Z-Image-Turbo, conçue pour améliorer l'efficacité tout en préservant les performances. Grâce à la technique SDNQ, il accélère les opérations de multiplication matricielle en INT8, tout en restant compatible avec les calculs en BF16 pour une flexibilité d'utilisation. Ce modèle se distingue par sa capacité à fonctionner plus rapidement sur des matériels compatibles, sans sacrifier la qualité des résultats générés. Il est particulièrement adapté aux applications nécessitant des inférences rapides, comme la génération d'images en temps réel ou le traitement de grands volumes de données visuelles. Son principal atout réside dans son équilibre entre performance et légèreté, le rendant idéal pour les environnements où les ressources sont limitées.

Documentation

8 bit quantization of Tongyi-MAI/Z-Image-Turbo using SDNQ.
This model is quantized with group sizes disabled for faster INT8 MatMul.
Example code to enable INT8 MatMul is provided in the Usage.
INT8 MatMul is optional and disabled by default.

Usage:

Code
pip install sdnq
Py
import torch
import diffusers
from sdnq import SDNQConfig # import sdnq to register it into diffusers and transformers
from sdnq.common import use_torch_compile as triton_is_available
from sdnq.loader import apply_sdnq_options_to_model

pipe = diffusers.ZImagePipeline.from_pretrained("Disty0/Z-Image-Turbo-SDNQ-int8", torch_dtype=torch.bfloat16)

# Enable INT8 MatMul for AMD, Intel ARC and Nvidia GPUs:
if triton_is_available and (torch.cuda.is_available() or torch.xpu.is_available()):
    pipe.transformer = apply_sdnq_options_to_model(pipe.transformer, use_quantized_matmul=True)
    pipe.text_encoder = apply_sdnq_options_to_model(pipe.text_encoder, use_quantized_matmul=True)
    pipe.transformer = torch.compile(pipe.transformer) # optional for faster speeds

pipe.enable_model_cpu_offload()

prompt = "Young Chinese woman in red Hanfu, intricate embroidery. Impeccable makeup, red floral forehead pattern. Elaborate high bun, golden phoenix headdress, red flowers, beads. Holds round folding fan with lady, trees, bird. Neon lightning-bolt lamp (⚡️), bright yellow glow, above extended left palm. Soft-lit outdoor night background, silhouetted tiered pagoda (西安大雁塔), blurred colorful distant lights."
image = pipe(
    prompt=prompt,
    height=1024,
    width=1024,
    num_inference_steps=9,
    guidance_scale=0.0,
    generator=torch.manual_seed(42),
).images[0]
image.save("z-image-turbo-sdnq-int8")

Original BF16 vs SDNQ quantization comparison:

QuantizationModel SizeVisualization
Original BF1612.3 GBOriginal BF16
SDNQ INT86.2 GBSDNQ INT8
SDNQ INT8 MatMul6.2 GBSDNQ INT8 MatMul
Liens & Ressources
Spécifications
CatégorieImage
AccèsAPI & Local
LicenceOpen Source
TarificationOpen Source
Note
1.6

Essayer Z Image Turbo SDNQ int8

Accédez directement au modèle