AI ExplorerAI Explorer
OutilsCatégoriesSitesLLMsComparerQuiz IAAlternativesPremium

—

Outils IA

—

Sites & Blogs

—

LLMs & Modèles

—

Catégories

AI Explorer

Trouvez et comparez les meilleurs outils d'intelligence artificielle pour vos projets.

Fait avecen France

Explorer

  • Tous les outils
  • Sites & Blogs
  • LLMs & Modèles
  • Comparer
  • Chatbots
  • Images IA
  • Code & Dev

Entreprise

  • Premium
  • À propos
  • Contact
  • Blog

Légal

  • Mentions légales
  • Confidentialité
  • CGV

© 2026 AI Explorer. Tous droits réservés.

AccueilLLMscontrolnet openpose sdxl 1.0

controlnet openpose sdxl 1.0

par thibaud

Open source · 50k downloads · 400 likes

3.3
(400 avis)ImageAPI & Local
À propos

Le modèle *ControlNet OpenPose SDXL 1.0* est une version spécialisée de SDXL qui intègre le contrôle par pose OpenPose (v2) pour guider la génération d'images. Il permet de créer des visuels où les personnages ou objets suivent précisément une posture ou une composition donnée, tout en conservant la qualité et la richesse des détails propres à SDXL. Ses principaux cas d'usage incluent la création artistique, l'illustration de scènes dynamiques ou la génération de contenus visuels nécessitant un positionnement exact des éléments. Ce qui le distingue, c'est sa capacité à combiner le réalisme des poses humaines ou animales avec la flexibilité créative de SDXL, offrant ainsi un outil puissant pour les artistes, designers ou créateurs de contenu souhaitant contrôler finement la structure de leurs images.

Documentation

SDXL-controlnet: OpenPose (v2)

These are controlnet weights trained on stabilityai/stable-diffusion-xl-base-1.0 with OpenPose (v2) conditioning. You can find some example images in the following.

prompt: a ballerina, romantic sunset, 4k photo images_0)

Comfy Workflow

images_0)

(Image is from ComfyUI, you can drag and drop in Comfy to use it as workflow)

License: refers to the OpenPose's one.

Using in 🧨 diffusers

First, install all the libraries:

Bash
pip install -q controlnet_aux transformers accelerate
pip install -q git+https://github.com/huggingface/diffusers

Now, we're ready to make Darth Vader dance:

Python
from diffusers import AutoencoderKL, StableDiffusionXLControlNetPipeline, ControlNetModel, UniPCMultistepScheduler
import torch
from controlnet_aux import OpenposeDetector
from diffusers.utils import load_image


# Compute openpose conditioning image.
openpose = OpenposeDetector.from_pretrained("lllyasviel/ControlNet")

image = load_image(
    "https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/diffusers/person.png"
)
openpose_image = openpose(image)

# Initialize ControlNet pipeline.
controlnet = ControlNetModel.from_pretrained("thibaud/controlnet-openpose-sdxl-1.0", torch_dtype=torch.float16)
pipe = StableDiffusionXLControlNetPipeline.from_pretrained(
    "stabilityai/stable-diffusion-xl-base-1.0", controlnet=controlnet, torch_dtype=torch.float16
)
pipe.enable_model_cpu_offload()


# Infer.
prompt = "Darth vader dancing in a desert, high quality"
negative_prompt = "low quality, bad quality"
images = pipe(
    prompt, 
    negative_prompt=negative_prompt,
    num_inference_steps=25,
    num_images_per_prompt=4,
    image=openpose_image.resize((1024, 1024)),
    generator=torch.manual_seed(97),
).images
images[0]

Here are some gemerated examples:

Training

Use of the training script by HF🤗 here.

Training data

This checkpoint was first trained for 15,000 steps on laion 6a resized to a max minimum dimension of 768.

Compute

one 1xA100 machine (Thanks a lot HF🤗 to provide the compute!)

Batch size

Data parallel with a single gpu batch size of 2 with gradient accumulation 8.

Hyper Parameters

Constant learning rate of 8e-5

Mixed precision

fp16

Liens & Ressources
Spécifications
CatégorieImage
AccèsAPI & Local
LicenceOpen Source
TarificationOpen Source
Note
3.3

Essayer controlnet openpose sdxl 1.0

Accédez directement au modèle