AI/EXPLORER
OutilsCatégoriesSitesLLMsComparerQuiz IAAlternativesPremium
—Outils IA
—Sites & Blogs
—LLMs & Modèles
—Catégories
AI Explorer

Trouvez et comparez les meilleurs outils d'intelligence artificielle pour vos projets.

Fait avecen France

Explorer

  • ›Tous les outils
  • ›Sites & Blogs
  • ›LLMs & Modèles
  • ›Comparer
  • ›Chatbots
  • ›Images IA
  • ›Code & Dev

Entreprise

  • ›Premium
  • ›À propos
  • ›Contact
  • ›Blog

Légal

  • ›Mentions légales
  • ›Confidentialité
  • ›CGV

© 2026 AI Explorer·Tous droits réservés.

AccueilLLMsmultilingual e5 small

multilingual e5 small

par Xenova

Open source · 40k downloads · 10 likes

1.3
(10 avis)EmbeddingAPI & Local
À propos

Le modèle *multilingual-e5-small* est une version compacte et optimisée du modèle E5, conçue pour traiter et comprendre le texte dans de nombreuses langues. Il excelle dans des tâches comme la recherche d'informations, la classification ou la comparaison de textes multilingues, grâce à sa capacité à générer des embeddings (représentations vectorielles) de haute qualité. Ses principaux cas d'usage incluent l'analyse de similarité sémantique entre documents, l'extraction d'informations multilingues ou encore l'amélioration des systèmes de recommandation. Ce qui le distingue, c'est son efficacité sur des appareils légers, notamment via une intégration avec Transformers.js et des poids ONNX pour une exécution optimisée dans des environnements web ou mobiles.

Documentation

https://huggingface.co/intfloat/multilingual-e5-small with ONNX weights to be compatible with Transformers.js.

Usage (Transformers.js)

If you haven't already, you can install the Transformers.js JavaScript library from NPM using:

Bash
npm i @huggingface/transformers

Example: Run feature extraction.

Js
import { pipeline } from '@huggingface/transformers';

const extractor = await pipeline('feature-extraction', 'Xenova/multilingual-e5-small');
const output = await extractor('This is a simple test.');

Note: Having a separate repo for ONNX weights is intended to be a temporary solution until WebML gains more traction. If you would like to make your models web-ready, we recommend converting to ONNX using 🤗 Optimum and structuring your repo like this one (with ONNX weights located in a subfolder named onnx).

Liens & Ressources
Spécifications
CatégorieEmbedding
AccèsAPI & Local
LicenceOpen Source
TarificationOpen Source
Note
1.3

Essayer multilingual e5 small

Accédez directement au modèle