AI ExplorerAI Explorer
OutilsCatégoriesSitesLLMsComparerQuiz IAAlternativesPremium

—

Outils IA

—

Sites & Blogs

—

LLMs & Modèles

—

Catégories

AI Explorer

Trouvez et comparez les meilleurs outils d'intelligence artificielle pour vos projets.

Fait avecen France

Explorer

  • Tous les outils
  • Sites & Blogs
  • LLMs & Modèles
  • Comparer
  • Chatbots
  • Images IA
  • Code & Dev

Entreprise

  • Premium
  • À propos
  • Contact
  • Blog

Légal

  • Mentions légales
  • Confidentialité
  • CGV

© 2026 AI Explorer. Tous droits réservés.

AccueilLLMsFLUX.2 klein 9B SDNQ 4bit dynamic svd r32

FLUX.2 klein 9B SDNQ 4bit dynamic svd r32

par Disty0

Open source · 10k downloads · 13 likes

1.4
(13 avis)ImageAPI & Local
À propos

FLUX.2 klein 9B SDNQ 4bit est une version optimisée du modèle FLUX.2 klein 9B, utilisant une quantification dynamique en 4 bits pour réduire sa taille et améliorer son efficacité sans sacrifier significativement ses performances. Grâce à une approche fine par couche, il ajuste dynamiquement le type de données (uint4 ou int5) pour maintenir une perte de qualité minimale, garantissant ainsi un équilibre optimal entre précision et légèreté. Ce modèle est particulièrement adapté aux environnements où les ressources computationnelles sont limitées, comme les appareils mobiles ou les systèmes embarqués, tout en restant performant pour des tâches de génération de texte ou de traitement du langage. Sa méthode de quantification SVD (décomposition en valeurs singulières) avec un rang de 32 permet de compresser davantage le modèle tout en préservant ses capacités. Ce qui le distingue, c'est sa capacité à offrir une alternative plus accessible et économe en mémoire, tout en conservant une qualité proche de l'original.

Documentation

Dynamic 4 bit quantization of black-forest-labs/FLUX.2-klein-9B using SDNQ.

This model uses per layer fine grained quantization.
What dtype to use for a layer is selected dynamically by trial and error until the std normalized mse loss is lower than the selected threshold.

Minimum allowed dtype is set to uint4 and std normalized mse loss threshold is set to 1e-2.
This created a mixed precision model with uint4 and int5 dtypes.
SVD quantization is enabled with SVD rank 32.

Usage:

Code
pip install sdnq
Py
import torch
import diffusers
from sdnq import SDNQConfig # import sdnq to register it into diffusers and transformers
from sdnq.common import use_torch_compile as triton_is_available
from sdnq.loader import apply_sdnq_options_to_model

pipe = diffusers.Flux2KleinPipeline.from_pretrained("Disty0/FLUX.2-klein-9B-SDNQ-4bit-dynamic-svd-r32", torch_dtype=torch.bfloat16)

# Enable INT8 MatMul for AMD, Intel ARC and Nvidia GPUs:
if triton_is_available and (torch.cuda.is_available() or torch.xpu.is_available()):
    pipe.transformer = apply_sdnq_options_to_model(pipe.transformer, use_quantized_matmul=True)
    pipe.text_encoder = apply_sdnq_options_to_model(pipe.text_encoder, use_quantized_matmul=True)
    # pipe.transformer = torch.compile(pipe.transformer) # optional for faster speeds

pipe.enable_model_cpu_offload()

prompt = "A cat holding a sign that says hello world"
image = pipe(
    prompt=prompt,
    height=1024,
    width=1024,
    guidance_scale=1.0,
    num_inference_steps=4,
    generator=torch.manual_seed(0)
).images[0]

image.save("flux-klein-sdnq-4bit-dynamic-svd-r32.png")

Original BF16 vs SDNQ quantization comparison:

QuantizationModel SizeVisualization
Original BF1618.2 GBOriginal BF16
SDNQ 4 Bit5.7 GBSDNQ UINT4
Liens & Ressources
Spécifications
CatégorieImage
AccèsAPI & Local
LicenceOpen Source
TarificationOpen Source
Paramètres9B parameters
Note
1.4

Essayer FLUX.2 klein 9B SDNQ 4bit dynamic svd r32

Accédez directement au modèle