AI/EXPLORER
OutilsCatégoriesSitesLLMsComparerQuiz IAAlternativesPremium
—Outils IA
—Sites & Blogs
—LLMs & Modèles
—Catégories
AI Explorer

Trouvez et comparez les meilleurs outils d'intelligence artificielle pour vos projets.

Fait avecen France

Explorer

  • ›Tous les outils
  • ›Sites & Blogs
  • ›LLMs & Modèles
  • ›Comparer
  • ›Chatbots
  • ›Images IA
  • ›Code & Dev

Entreprise

  • ›Premium
  • ›À propos
  • ›Contact
  • ›Blog

Légal

  • ›Mentions légales
  • ›Confidentialité
  • ›CGV

© 2026 AI Explorer·Tous droits réservés.

AccueilLLMsspeecht5 finetuned voxpopuli de

speecht5 finetuned voxpopuli de

par hphtwm

Open source · 144 downloads · 0 likes

0.0
(0 avis)AudioAPI & Local
À propos

Ce modèle est une version fine-tunée de SpeechT5, spécialement entraînée sur le jeu de données VoxPopuli pour la langue allemande. Il génère de la parole à partir de texte avec une qualité naturelle et expressive, adaptée aux applications nécessitant une synthèse vocale en allemand. Ses principaux cas d'usage incluent la création de voix off, l'assistance vocale pour les applications interactives ou les outils d'accessibilité. Ce qui le distingue est son entraînement sur un corpus diversifié et représentatif de l'allemand parlé, lui permettant de produire des intonations et un rythme plus naturels que les modèles génériques.

Documentation

speecht5_finetuned_voxpopuli_de

This model is a fine-tuned version of microsoft/speecht5_tts on the voxpopuli dataset. It achieves the following results on the evaluation set:

  • Loss: 0.4642

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 1e-05
  • train_batch_size: 4
  • eval_batch_size: 2
  • seed: 42
  • gradient_accumulation_steps: 8
  • total_train_batch_size: 32
  • optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
  • lr_scheduler_type: linear
  • lr_scheduler_warmup_steps: 500
  • training_steps: 4000
  • mixed_precision_training: Native AMP

Training results

Training LossEpochStepValidation Loss
0.52772.262110000.4846
0.51064.524120000.4723
0.50296.786230000.4654
0.50439.049740000.4642

Framework versions

  • Transformers 4.50.3
  • Pytorch 2.8.0+cu129
  • Datasets 3.6.0
  • Tokenizers 0.21.4
Liens & Ressources
Spécifications
CatégorieAudio
AccèsAPI & Local
LicenceOpen Source
TarificationOpen Source
Note
0.0

Essayer speecht5 finetuned voxpopuli de

Accédez directement au modèle