AI/EXPLORER
ToolsCategoriesSitesLLMsCompareAI QuizAlternativesPremium
—AI Tools
—Sites & Blogs
—LLMs & Models
—Categories
AI Explorer

Find and compare the best artificial intelligence tools for your projects.

Made within France

Explore

  • ›All tools
  • ›Sites & Blogs
  • ›LLMs & Models
  • ›Compare
  • ›Chatbots
  • ›AI Images
  • ›Code & Dev

Company

  • ›Premium
  • ›About
  • ›Contact
  • ›Blog

Legal

  • ›Legal notice
  • ›Privacy
  • ›Terms

© 2026 AI Explorer·All rights reserved.

HomeLLMsFLUX.2 klein 4B SDNQ 4bit dynamic

FLUX.2 klein 4B SDNQ 4bit dynamic

by Disty0

Open source · 10k downloads · 11 likes

1.3
(11 reviews)ImageAPI & Local
About

FLUX.2 klein 4B SDNQ 4bit dynamic est une version optimisée du modèle FLUX.2 klein 4B, utilisant une quantification dynamique en 4 bits pour réduire sa taille et améliorer son efficacité sans sacrifier significativement ses performances. Grâce à une approche fine par couche, le modèle ajuste dynamiquement le type de données (uint4 ou int5) en fonction d'un seuil de perte normalisée, garantissant un équilibre entre précision et légèreté. Il conserve les capacités originales du modèle, comme la génération d'images ou de contenus créatifs, tout en étant plus accessible pour des déploiements sur des ressources limitées. Ce modèle se distingue par sa capacité à offrir une alternative performante et économique, idéale pour des applications nécessitant un compromis entre qualité et ressources computationnelles. Ses principaux cas d'usage incluent la génération d'images, l'expérimentation créative ou l'intégration dans des environnements où la mémoire et la puissance de calcul sont contraintes.

Documentation

Dynamic 4 bit quantization of black-forest-labs/FLUX.2-klein-4B using SDNQ.

This model uses per layer fine grained quantization.
What dtype to use for a layer is selected dynamically by trial and error until the std normalized mse loss is lower than the selected threshold.

Minimum allowed dtype is set to uint4 and std normalized mse loss threshold is set to 1e-2.
This created a mixed precision model with uint4 and int5 dtypes.
SVD quantization is disabled.

Usage:

Code
pip install sdnq
Py
import torch
import diffusers
from sdnq import SDNQConfig # import sdnq to register it into diffusers and transformers
from sdnq.common import use_torch_compile as triton_is_available
from sdnq.loader import apply_sdnq_options_to_model

pipe = diffusers.Flux2KleinPipeline.from_pretrained("Disty0/FLUX.2-klein-4B-SDNQ-4bit-dynamic", torch_dtype=torch.bfloat16)

# Enable INT8 MatMul for AMD, Intel ARC and Nvidia GPUs:
if triton_is_available and (torch.cuda.is_available() or torch.xpu.is_available()):
    pipe.transformer = apply_sdnq_options_to_model(pipe.transformer, use_quantized_matmul=True)
    pipe.text_encoder = apply_sdnq_options_to_model(pipe.text_encoder, use_quantized_matmul=True)
    # pipe.transformer = torch.compile(pipe.transformer) # optional for faster speeds

pipe.enable_model_cpu_offload()

prompt = "A cat holding a sign that says hello world"
image = pipe(
    prompt=prompt,
    height=1024,
    width=1024,
    guidance_scale=1.0,
    num_inference_steps=4,
    generator=torch.manual_seed(0)
).images[0]

image.save("flux-klein-sdnq-4bit-dynamic.png")

Original BF16 vs SDNQ quantization comparison:

QuantizationModel SizeVisualization
Original BF167.8 GBOriginal BF16
SDNQ 4 Bit2.5 GBSDNQ UINT4
Capabilities & Tags
diffuserssafetensorssdnqflux4-bit
Links & Resources
Specifications
CategoryImage
AccessAPI & Local
LicenseOpen Source
PricingOpen Source
Parameters4B parameters
Rating
1.3

Try FLUX.2 klein 4B SDNQ 4bit dynamic

Access the model directly