AI/EXPLORER
OutilsCatégoriesSitesLLMsComparerQuiz IAAlternativesPremium
—Outils IA
—Sites & Blogs
—LLMs & Modèles
—Catégories
AI Explorer

Trouvez et comparez les meilleurs outils d'intelligence artificielle pour vos projets.

Fait avecen France

Explorer

  • ›Tous les outils
  • ›Sites & Blogs
  • ›LLMs & Modèles
  • ›Comparer
  • ›Chatbots
  • ›Images IA
  • ›Code & Dev

Entreprise

  • ›Premium
  • ›À propos
  • ›Contact
  • ›Blog

Légal

  • ›Mentions légales
  • ›Confidentialité
  • ›CGV

© 2026 AI Explorer·Tous droits réservés.

AccueilLLMscontriever msmarco

contriever msmarco

par facebook

Open source · 32k downloads · 33 likes

1.9
(33 avis)EmbeddingAPI & Local
À propos

Contriever MS MARCO est un modèle de langage spécialisé dans la recherche d'information dense, optimisé pour générer des embeddings de haute qualité à partir de textes. Il s'agit d'une version affinée du modèle Contriever pré-entraîné, conçue pour améliorer les performances dans des tâches de récupération d'informations non supervisées. Grâce à son approche par apprentissage contrastif, il excelle à capturer les nuances sémantiques des phrases, permettant une correspondance précise entre requêtes et documents. Ce modèle est particulièrement adapté aux systèmes de recherche avancée, aux moteurs de recommandation ou aux assistants conversationnels nécessitant une compréhension fine du langage. Ce qui le distingue, c'est sa capacité à fonctionner efficacement sans données d'entraînement étiquetées, tout en offrant des résultats robustes dans des scénarios variés. Son architecture le rend polyvalent pour des applications où la pertinence et la précision des résultats sont cruciales.

Documentation

This model is the finetuned version of the pre-trained contriever model available here https://huggingface.co/facebook/contriever, following the approach described in Towards Unsupervised Dense Information Retrieval with Contrastive Learning. The associated GitHub repository is available here https://github.com/facebookresearch/contriever.

Usage (HuggingFace Transformers)

Using the model directly available in HuggingFace transformers requires to add a mean pooling operation to obtain a sentence embedding.

Python
import torch
from transformers import AutoTokenizer, AutoModel

tokenizer = AutoTokenizer.from_pretrained('facebook/contriever-msmarco')
model = AutoModel.from_pretrained('facebook/contriever-msmarco')

sentences = [
    "Where was Marie Curie born?",
    "Maria Sklodowska, later known as Marie Curie, was born on November 7, 1867.",
    "Born in Paris on 15 May 1859, Pierre Curie was the son of Eugène Curie, a doctor of French Catholic origin from Alsace."
]

# Apply tokenizer
inputs = tokenizer(sentences, padding=True, truncation=True, return_tensors='pt')

# Compute token embeddings
outputs = model(**inputs)

# Mean pooling
def mean_pooling(token_embeddings, mask):
    token_embeddings = token_embeddings.masked_fill(~mask[..., None].bool(), 0.)
    sentence_embeddings = token_embeddings.sum(dim=1) / mask.sum(dim=1)[..., None]
    return sentence_embeddings
embeddings = mean_pooling(outputs[0], inputs['attention_mask'])
Liens & Ressources
Spécifications
CatégorieEmbedding
AccèsAPI & Local
LicenceOpen Source
TarificationOpen Source
Note
1.9

Essayer contriever msmarco

Accédez directement au modèle