par segmind
Open source · 8k downloads · 87 likes
Le modèle tiny-sd est une version optimisée et allégée du modèle Stable Diffusion, conçue pour générer des images à partir de texte de manière plus rapide et efficace. Distillé à partir de Realistic Vision V4.0, il s'appuie sur un sous-ensemble amélioré de données artistiques pour produire des résultats réalistes et détaillés. Ses principales capacités incluent la création d'images en haute résolution (512x512) avec une latence réduite, jusqu'à 80 % plus rapide que les modèles de base, tout en conservant une qualité visuelle comparable. Ce modèle est particulièrement adapté aux applications nécessitant des générations d'images en temps réel ou à grande échelle, comme les outils créatifs, les prototypes ou les pipelines automatisés. Ce qui le distingue, c'est son équilibre entre performance et accessibilité, offrant une alternative légère sans sacrifier la fidélité des résultats.
license: creativeml-openrail-m base_model: SG161222/Realistic_Vision_V4.0 datasets:
This pipeline was distilled from SG161222/Realistic_Vision_V4.0 on a Subset of recastai/LAION-art-EN-improved-captions dataset. Below are some example images generated with the tiny-sd model.

This Pipeline is based upon the paper. Training Code can be found here.
You can use the pipeline like so:
from diffusers import DiffusionPipeline
import torch
pipeline = DiffusionPipeline.from_pretrained("segmind/tiny-sd", torch_dtype=torch.float16)
prompt = "Portrait of a pretty girl"
image = pipeline(prompt).images[0]
image.save("my_image.png")
These are the key hyperparameters used during training:
We have observed that the distilled models are upto 80% faster than the Base SD1.5 Models. Below is a comparision on an A100 80GB.

Here is the code for benchmarking the speeds.