par marcorez8
Open source · 657 downloads · 6 likes
ACE-Step v15 XL Turbo BF16 est un modèle d'IA spécialisé dans la génération musicale rapide et de haute qualité. Grâce à son architecture optimisée de 4 milliards de paramètres et à sa distillation accélérée, il produit des morceaux en seulement 8 étapes d'inférence, alliant vitesse et fidélité sonore. Conçu pour un usage commercial, il s'appuie sur des données d'entraînement légalement conformes, incluant des musiques sous licence, des œuvres libres de droits et des synthèses audio à partir de partitions MIDI. Sa version BF16 réduit significativement l'empreinte mémoire tout en conservant une qualité quasi identique à l'original, le rendant accessible sur des configurations GPU plus modestes. Idéal pour les créateurs, développeurs ou entreprises cherchant à intégrer une génération musicale performante dans leurs projets, il se distingue par son équilibre entre rapidité, qualité et conformité légale.
Project | Hugging Face | ModelScope | Space Demo | Discord | Tech Report
This is the BF16 version of ACE-Step/acestep-v15-xl-turbo — the XL (4B) Turbo variant of ACE-Step 1.5. This BF16 conversion reduces memory usage while maintaining near-identical quality to the original model. It is a distillation-accelerated model that generates high-quality audio in just 8 steps, combining the speed of turbo with the quality of the 4B architecture.
| Parameter | Value |
|---|---|
| DiT Decoder hidden_size | 2560 |
| DiT Decoder layers | 32 |
| DiT Decoder attention heads | 32 |
| Encoder hidden_size | 2048 |
| Encoder layers | 8 |
| Total params | ~4B |
| Weights size (bf16) | ~7.5 GB |
| Inference steps | 8 (no CFG, distilled) |
| VRAM | Support |
|---|---|
| ≥8 GB | With CPU offload + INT8 quantization |
| ≥12 GB | With CPU offload |
| ≥16 GB | Without offload (recommended) |
| ≥20 GB | Full quality (XL + 4B LM) |
All LM models (0.6B / 1.7B / 4B) are fully compatible with XL.
🔮 Higher Quality: 4B parameters provide richer audio quality than 2B turbo.
🧠 BF16 Precision: Converted to BF16 for reduced VRAM usage and faster inference, with negligible quality loss.
# Install ACE-Step
git clone https://github.com/ace-step/ACE-Step-1.5.git
cd ACE-Step-1.5
pip install -e .
# Download this model
huggingface-cli download marcorez8/acestep-v15-xl-turbo-bf16 --local-dir ./checkpoints/acestep-v15-xl-turbo-bf16
# Run with Gradio UI
python acestep --config-path acestep-v15-xl-turbo-bf16
| DiT Model | CFG | Steps | Quality | Diversity | Tasks | Hugging Face | ModelScope |
|---|---|---|---|---|---|---|---|
acestep-v15-xl-base | ✅ | 50 | High | High | All (extract, lego, complete) | Link | Link |
acestep-v15-xl-sft | ✅ | 50 | Very High | Medium | Standard | Link | Link |
acestep-v15-xl-turbo | ❌ | 8 | Very High | Medium | Standard | Link | Link |
acestep-v15-xl-turbo-bf16 | ❌ | 8 | Very High | Medium | Standard | This repo | — |
| LM Model | Params | Audio Understanding | Composition | Hugging Face | ModelScope |
|---|---|---|---|---|---|
acestep-5Hz-lm-0.6B | 0.6B | Medium | Medium | Link | Link |
acestep-5Hz-lm-1.7B | 1.7B | Medium | Medium | Included in main | Included in main |
acestep-5Hz-lm-4B | 4B | Strong | Strong | Link | Link |
This project is co-led by ACE Studio and StepFun. The BF16 conversion was done by marcorez8 to make the model more accessible to the community.
@misc{gong2026acestep,
title={ACE-Step 1.5: Pushing the Boundaries of Open-Source Music Generation},
author={Junmin Gong, Yulin Song, Wenxiao Zhao, Sen Wang, Shengyuan Xu, Jing Guo},
howpublished={\url{https://github.com/ace-step/ACE-Step-1.5}},
year={2026},
note={GitHub repository}
}