AI/EXPLORER
OutilsCatégoriesSitesLLMsComparerQuiz IAAlternativesPremium
—Outils IA
—Sites & Blogs
—LLMs & Modèles
—Catégories
AI Explorer

Trouvez et comparez les meilleurs outils d'intelligence artificielle pour vos projets.

Fait avecen France

Explorer

  • ›Tous les outils
  • ›Sites & Blogs
  • ›LLMs & Modèles
  • ›Comparer
  • ›Chatbots
  • ›Images IA
  • ›Code & Dev

Entreprise

  • ›Premium
  • ›À propos
  • ›Contact
  • ›Blog

Légal

  • ›Mentions légales
  • ›Confidentialité
  • ›CGV

© 2026 AI Explorer·Tous droits réservés.

AccueilLLMsNeoBERT

NeoBERT

par chandar-lab

Open source · 19k downloads · 194 likes

2.9
(194 avis)EmbeddingAPI & Local
À propos

NeoBERT est un modèle d'encodage de texte en anglais de nouvelle génération, spécialement conçu pour représenter efficacement les données textuelles. Grâce à une architecture optimisée et un entraînement sur le vaste jeu de données RefinedWeb, il surpasse les modèles existants comme BERT ou RoBERTa tout en restant compact avec seulement 250 millions de paramètres. Son principal atout réside dans sa capacité à traiter des séquences jusqu’à 4 096 tokens, offrant ainsi une meilleure compréhension du contexte que ses prédécesseurs. Ce modèle se distingue par son efficacité énergétique et ses performances exceptionnelles sur des benchmarks comme MTEB, ce qui en fait un choix idéal pour des applications nécessitant une représentation textuelle de haute qualité. Il s’intègre facilement comme alternative plug-and-play dans des pipelines existants, simplifiant son adoption pour divers cas d’usage en traitement automatique du langage.

Documentation

NeoBERT

Hugging Face Model Card

NeoBERT is a next-generation encoder model for English text representation, pre-trained from scratch on the RefinedWeb dataset. NeoBERT integrates state-of-the-art advancements in architecture, modern data, and optimized pre-training methodologies. It is designed for seamless adoption: it serves as a plug-and-play replacement for existing base models, relies on an optimal depth-to-width ratio, and leverages an extended context length of 4,096 tokens. Despite its compact 250M parameter footprint, it is the most efficient model of its kind and achieves state-of-the-art results on the massive MTEB benchmark, outperforming BERT large, RoBERTa large, NomicBERT, and ModernBERT under identical fine-tuning conditions.

  • Paper: paper
  • Repository: github.

Get started

Ensure you have the following dependencies installed:

Bash
pip install transformers torch xformers==0.0.28.post3

If you would like to use sequence packing (un-padding), you will need to also install flash-attention:

Bash
pip install transformers torch xformers==0.0.28.post3 flash_attn

How to use

Load the model using Hugging Face Transformers:

Python
from transformers import AutoModel, AutoTokenizer

model_name = "chandar-lab/NeoBERT"
tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
model = AutoModel.from_pretrained(model_name, trust_remote_code=True)

# Tokenize input text
text = "NeoBERT is the most efficient model of its kind!"
inputs = tokenizer(text, return_tensors="pt")

# Generate embeddings
outputs = model(**inputs)
embedding = outputs.last_hidden_state[:, 0, :]
print(embedding.shape)

Features

FeatureNeoBERT
Depth-to-width28 × 768
Parameter count250M
ActivationSwiGLU
Positional embeddingsRoPE
NormalizationPre-RMSNorm
Data SourceRefinedWeb
Data Size2.8 TB
Tokenizergoogle/bert
Context length4,096
MLM Masking Rate20%
OptimizerAdamW
SchedulerCosineDecay
Training Tokens2.1 T
EfficiencyFlashAttention

License

Model weights and code repository are licensed under the permissive MIT license.

Citation

If you use this model in your research, please cite:

Bibtex
@misc{breton2025neobertnextgenerationbert,
      title={NeoBERT: A Next-Generation BERT}, 
      author={Lola Le Breton and Quentin Fournier and Mariam El Mezouar and Sarath Chandar},
      year={2025},
      eprint={2502.19587},
      archivePrefix={arXiv},
      primaryClass={cs.CL},
      url={https://arxiv.org/abs/2502.19587}, 
}

Contact

For questions, do not hesitate to reach out and open an issue on here or on our GitHub.


Liens & Ressources
Spécifications
CatégorieEmbedding
AccèsAPI & Local
LicenceOpen Source
TarificationOpen Source
Note
2.9

Essayer NeoBERT

Accédez directement au modèle