AI/EXPLORER
OutilsCatégoriesSitesLLMsComparerQuiz IAAlternativesPremium
—Outils IA
—Sites & Blogs
—LLMs & Modèles
—Catégories
AI Explorer

Trouvez et comparez les meilleurs outils d'intelligence artificielle pour vos projets.

Fait avecen France

Explorer

  • ›Tous les outils
  • ›Sites & Blogs
  • ›LLMs & Modèles
  • ›Comparer
  • ›Chatbots
  • ›Images IA
  • ›Code & Dev

Entreprise

  • ›Premium
  • ›À propos
  • ›Contact
  • ›Blog

Légal

  • ›Mentions légales
  • ›Confidentialité
  • ›CGV

© 2026 AI Explorer·Tous droits réservés.

AccueilLLMsdistilhubert

distilhubert

par ntu-spml

Open source · 93k downloads · 38 likes

2.0
(38 avis)EmbeddingAPI & Local
À propos

DistilHuBERT est un modèle de traitement automatique de la parole conçu pour extraire des représentations audio efficaces à partir de données non étiquetées. Il s'agit d'une version allégée et optimisée du modèle HuBERT, réduisant sa taille de 75 % tout en conservant des performances comparables sur dix tâches différentes. Grâce à une approche de distillation par apprentissage multi-tâches, il offre une alternative plus légère et plus rapide, idéale pour des applications nécessitant peu de ressources ou des déploiements sur appareil. Bien qu'il ne dispose pas de tokenizer intégré, il peut être affiné pour des tâches comme la reconnaissance vocale en ajoutant un module adapté. Ce modèle se distingue par sa rapidité d'entraînement et sa capacité à fonctionner avec des données limitées, ouvrant la voie à des solutions personnalisées ou embarquées.

Documentation

DistilHuBERT

DistilHuBERT by NTU Speech Processing & Machine Learning Lab

The base model pretrained on 16kHz sampled speech audio. When using the model make sure that your speech input is also sampled at 16Khz.

Note: This model does not have a tokenizer as it was pretrained on audio alone. In order to use this model speech recognition, a tokenizer should be created and the model should be fine-tuned on labeled text data. Check out this blog for more in-detail explanation of how to fine-tune the model.

Paper: DistilHuBERT: Speech Representation Learning by Layer-wise Distillation of Hidden-unit BERT

Authors: Heng-Jui Chang, Shu-wen Yang, Hung-yi Lee

Abstract Self-supervised speech representation learning methods like wav2vec 2.0 and Hidden-unit BERT (HuBERT) leverage unlabeled speech data for pre-training and offer good representations for numerous speech processing tasks. Despite the success of these methods, they require large memory and high pre-training costs, making them inaccessible for researchers in academia and small companies. Therefore, this paper introduces DistilHuBERT, a novel multi-task learning framework to distill hidden representations from a HuBERT model directly. This method reduces HuBERT's size by 75% and 73% faster while retaining most performance in ten different tasks. Moreover, DistilHuBERT required little training time and data, opening the possibilities of pre-training personal and on-device SSL models for speech.

The original model can be found under https://github.com/s3prl/s3prl/tree/master/s3prl/upstream/distiller .

Usage

See this blog for more information on how to fine-tune the model. Note that the class Wav2Vec2ForCTC has to be replaced by HubertForCTC.

Liens & Ressources
Spécifications
CatégorieEmbedding
AccèsAPI & Local
LicenceOpen Source
TarificationOpen Source
Note
2.0

Essayer distilhubert

Accédez directement au modèle