par nreimers
Open source · 23k downloads · 3 likes
BERT Tiny L 2 H 128 A 2 est une version compacte et optimisée du modèle BERT, conçue pour des tâches de traitement du langage naturel avec des ressources limitées. Avec seulement deux couches, une taille de 128 unités cachées et deux têtes d'attention, il offre un équilibre entre performance et efficacité, idéal pour des applications nécessitant une faible consommation de mémoire ou de calcul. Ce modèle excelle dans la compréhension de texte, la classification, la réponse aux questions et l'analyse sémantique, tout en restant accessible sur des dispositifs moins puissants. Sa légèreté le rend particulièrement adapté aux environnements embarqués ou aux projets où la rapidité d'inférence est cruciale. Malgré sa taille réduite, il conserve une partie des capacités de modélisation contextuelle de BERT, offrant des résultats fiables pour des besoins modérés en précision.
This is the BERT-Medium model from Google: https://github.com/google-research/bert#bert. A BERT model with 2 layers, 128 hidden unit size, and 2 attention heads.