AI/EXPLORER
OutilsCatégoriesSitesLLMsComparerQuiz IAAlternativesPremium
—Outils IA
—Sites & Blogs
—LLMs & Modèles
—Catégories
AI Explorer

Trouvez et comparez les meilleurs outils d'intelligence artificielle pour vos projets.

Fait avecen France

Explorer

  • ›Tous les outils
  • ›Sites & Blogs
  • ›LLMs & Modèles
  • ›Comparer
  • ›Chatbots
  • ›Images IA
  • ›Code & Dev

Entreprise

  • ›Premium
  • ›À propos
  • ›Contact
  • ›Blog

Légal

  • ›Mentions légales
  • ›Confidentialité
  • ›CGV

© 2026 AI Explorer·Tous droits réservés.

AccueilLLMsbge base en v1.5

bge base en v1.5

par Xenova

Open source · 1M downloads · 9 likes

1.3
(9 avis)EmbeddingAPI & Local
À propos

Le modèle BGE Base en v1.5 est une version optimisée pour le web du modèle BAAI BGE, spécialement conçue pour générer des embeddings textuels de haute qualité. Il permet de transformer des phrases ou des documents en vecteurs numériques denses, facilitant ainsi des tâches comme la recherche sémantique, la classification ou la comparaison de similarité entre textes. Ses principales capacités incluent la compréhension fine du langage et la production d’embeddings adaptés aux applications nécessitant une analyse contextuelle précise. Ce modèle se distingue par sa compatibilité avec Transformers.js et son format ONNX, qui le rend particulièrement performant et accessible dans des environnements JavaScript, notamment pour des déploiements légers et rapides. Idéal pour les développeurs cherchant à intégrer des fonctionnalités d’IA avancées dans des applications web ou des outils interactifs.

Documentation

https://huggingface.co/BAAI/bge-base-en-v1.5 with ONNX weights to be compatible with Transformers.js.

Usage (Transformers.js)

If you haven't already, you can install the Transformers.js JavaScript library from NPM using:

Bash
npm i @huggingface/transformers

You can then use the model to compute embeddings, as follows:

Js
import { pipeline } from '@huggingface/transformers';

// Create a feature-extraction pipeline
const extractor = await pipeline('feature-extraction', 'Xenova/bge-base-en-v1.5');

// Compute sentence embeddings
const texts = ['Hello world.', 'Example sentence.'];
const embeddings = await extractor(texts, { pooling: 'mean', normalize: true });
console.log(embeddings);
// Tensor {
//   dims: [ 2, 768 ],
//   type: 'float32',
//   data: Float32Array(1536) [ 0.019079938530921936, 0.041718777269124985, ... ],
//   size: 1536
// }

console.log(embeddings.tolist()); // Convert embeddings to a JavaScript list
// [
//   [ 0.019079938530921936, 0.041718777269124985, 0.037672195583581924, ... ],
//   [ 0.020936904475092888, 0.020080938935279846, -0.00787576474249363, ... ]
// ]

You can also use the model for retrieval. For example:

Js
import { pipeline, cos_sim } from '@huggingface/transformers';

// Create a feature-extraction pipeline
const extractor = await pipeline('feature-extraction', 'Xenova/bge-base-en-v1.5');

// List of documents you want to embed
const texts = [
    'Hello world.',
    'The giant panda (Ailuropoda melanoleuca), sometimes called a panda bear or simply panda, is a bear species endemic to China.',
    'I love pandas so much!',
];

// Compute sentence embeddings
const embeddings = await extractor(texts, { pooling: 'mean', normalize: true });

// Prepend recommended query instruction for retrieval.
const query_prefix = 'Represent this sentence for searching relevant passages: '
const query = query_prefix + 'What is a panda?';
const query_embeddings = await extractor(query, { pooling: 'mean', normalize: true });

// Sort by cosine similarity score
const scores = embeddings.tolist().map(
    (embedding, i) => ({
        id: i,
        score: cos_sim(query_embeddings.data, embedding),
        text: texts[i],
    })
).sort((a, b) => b.score - a.score);
console.log(scores);
// [
//   { id: 1, score: 0.7787772374597298, text: 'The giant panda (Ailuropoda melanoleuca), sometimes called a panda bear or simply panda, is a bear species endemic to China.' },
//   { id: 2, score: 0.7071589521880506, text: 'I love pandas so much!' },
//   { id: 0, score: 0.4252782730390429, text: 'Hello world.' }
// ]

Note: Having a separate repo for ONNX weights is intended to be a temporary solution until WebML gains more traction. If you would like to make your models web-ready, we recommend converting to ONNX using 🤗 Optimum and structuring your repo like this one (with ONNX weights located in a subfolder named onnx).

Liens & Ressources
Spécifications
CatégorieEmbedding
AccèsAPI & Local
LicenceOpen Source
TarificationOpen Source
Note
1.3

Essayer bge base en v1.5

Accédez directement au modèle