AI ExplorerAI Explorer
OutilsCatégoriesSitesLLMsComparerQuiz IAAlternativesPremium

—

Outils IA

—

Sites & Blogs

—

LLMs & Modèles

—

Catégories

AI Explorer

Trouvez et comparez les meilleurs outils d'intelligence artificielle pour vos projets.

Fait avecen France

Explorer

  • Tous les outils
  • Sites & Blogs
  • LLMs & Modèles
  • Comparer
  • Chatbots
  • Images IA
  • Code & Dev

Entreprise

  • Premium
  • À propos
  • Contact
  • Blog

Légal

  • Mentions légales
  • Confidentialité
  • CGV

© 2026 AI Explorer. Tous droits réservés.

AccueilLLMstiny sd

tiny sd

par segmind

Open source · 8k downloads · 87 likes

2.4
(87 avis)ImageAPI & Local
À propos

Le modèle tiny-sd est une version optimisée et allégée du modèle Stable Diffusion, conçue pour générer des images à partir de texte de manière plus rapide et efficace. Distillé à partir de Realistic Vision V4.0, il s'appuie sur un sous-ensemble amélioré de données artistiques pour produire des résultats réalistes et détaillés. Ses principales capacités incluent la création d'images en haute résolution (512x512) avec une latence réduite, jusqu'à 80 % plus rapide que les modèles de base, tout en conservant une qualité visuelle comparable. Ce modèle est particulièrement adapté aux applications nécessitant des générations d'images en temps réel ou à grande échelle, comme les outils créatifs, les prototypes ou les pipelines automatisés. Ce qui le distingue, c'est son équilibre entre performance et accessibilité, offrant une alternative légère sans sacrifier la fidélité des résultats.

Documentation

license: creativeml-openrail-m base_model: SG161222/Realistic_Vision_V4.0 datasets:

  • recastai/LAION-art-EN-improved-captions tags:
  • stable-diffusion
  • stable-diffusion-diffusers
  • text-to-image
  • diffusers inference: true

Text-to-image Distillation

This pipeline was distilled from SG161222/Realistic_Vision_V4.0 on a Subset of recastai/LAION-art-EN-improved-captions dataset. Below are some example images generated with the tiny-sd model.

val_imgs_grid

This Pipeline is based upon the paper. Training Code can be found here.

Pipeline usage

You can use the pipeline like so:

Python
from diffusers import DiffusionPipeline
import torch

pipeline = DiffusionPipeline.from_pretrained("segmind/tiny-sd", torch_dtype=torch.float16)
prompt = "Portrait of a pretty girl"
image = pipeline(prompt).images[0]
image.save("my_image.png")

Training info

These are the key hyperparameters used during training:

  • Steps: 125000
  • Learning rate: 1e-4
  • Batch size: 32
  • Gradient accumulation steps: 4
  • Image resolution: 512
  • Mixed-precision: fp16

Speed Comparision

We have observed that the distilled models are upto 80% faster than the Base SD1.5 Models. Below is a comparision on an A100 80GB.

graph comparision

Here is the code for benchmarking the speeds.

Liens & Ressources
Spécifications
CatégorieImage
AccèsAPI & Local
LicenceOpen Source
TarificationOpen Source
Note
2.4

Essayer tiny sd

Accédez directement au modèle