AI/EXPLORER
OutilsCatégoriesSitesLLMsComparerQuiz IAAlternativesPremium
—Outils IA
—Sites & Blogs
—LLMs & Modèles
—Catégories
AI Explorer

Trouvez et comparez les meilleurs outils d'intelligence artificielle pour vos projets.

Fait avecen France

Explorer

  • ›Tous les outils
  • ›Sites & Blogs
  • ›LLMs & Modèles
  • ›Comparer
  • ›Chatbots
  • ›Images IA
  • ›Code & Dev

Entreprise

  • ›Premium
  • ›À propos
  • ›Contact
  • ›Blog

Légal

  • ›Mentions légales
  • ›Confidentialité
  • ›CGV

© 2026 AI Explorer·Tous droits réservés.

AccueilLLMsspeecht5 finetuned

speecht5 finetuned

par mustafoyev202

Open source · 264 downloads · 1 likes

0.4
(1 avis)AudioAPI & Local
À propos

Ce modèle est une version affinée de *SpeechT5*, spécialisée dans la synthèse vocale à partir de texte. Il transforme des phrases écrites en parole naturelle et intelligible, avec une qualité vocale améliorée par rapport à la version de base. Ses principaux cas d'usage incluent la création de voix off, l'assistance aux personnes malvoyantes ou la génération de contenus audio pour des applications multimédias. Ce qui le distingue, c'est son entraînement sur un jeu de données non précisé, optimisé pour réduire les pertes de qualité tout en maintenant une fluidité et une expressivité naturelles. Son architecture robuste et ses performances élevées en font un outil polyvalent pour des projets nécessitant une conversion texte-parole performante.

Documentation

speecht5_finetuned

This model is a fine-tuned version of microsoft/speecht5_tts on an unknown dataset. It achieves the following results on the evaluation set:

  • eval_loss: 0.3355
  • eval_runtime: 5.4808
  • eval_samples_per_second: 40.87
  • eval_steps_per_second: 10.218
  • epoch: 559.5238
  • step: 35250

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 5e-05
  • train_batch_size: 8
  • eval_batch_size: 4
  • seed: 42
  • gradient_accumulation_steps: 4
  • total_train_batch_size: 32
  • optimizer: Use adamw_torch with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
  • lr_scheduler_type: linear
  • lr_scheduler_warmup_steps: 300
  • training_steps: 100000
  • mixed_precision_training: Native AMP

Framework versions

  • Transformers 4.52.3
  • Pytorch 2.7.0+cu118
  • Datasets 3.6.0
  • Tokenizers 0.21.1
Liens & Ressources
Spécifications
CatégorieAudio
AccèsAPI & Local
LicenceOpen Source
TarificationOpen Source
Note
0.4

Essayer speecht5 finetuned

Accédez directement au modèle