AI/EXPLORER
OutilsCatégoriesSitesLLMsComparerQuiz IAAlternativesPremium
—Outils IA
—Sites & Blogs
—LLMs & Modèles
—Catégories
AI Explorer

Trouvez et comparez les meilleurs outils d'intelligence artificielle pour vos projets.

Fait avecen France

Explorer

  • ›Tous les outils
  • ›Sites & Blogs
  • ›LLMs & Modèles
  • ›Comparer
  • ›Chatbots
  • ›Images IA
  • ›Code & Dev

Entreprise

  • ›Premium
  • ›À propos
  • ›Contact
  • ›Blog

Légal

  • ›Mentions légales
  • ›Confidentialité
  • ›CGV

© 2026 AI Explorer·Tous droits réservés.

AccueilLLMsparaphrase multilingual MiniLM L12 v2

paraphrase multilingual MiniLM L12 v2

par Xenova

Open source · 111k downloads · 16 likes

1.5
(16 avis)EmbeddingAPI & Local
À propos

Ce modèle, *paraphrase multilingual MiniLM L12 v2*, est conçu pour générer des représentations vectorielles (embeddings) de textes dans plusieurs langues, facilitant ainsi la comparaison sémantique entre phrases ou documents. Il excelle dans la détection de paraphrases et la recherche d'informations multilingues, offrant une alternative légère et performante aux modèles plus lourds. Ses principaux cas d'usage incluent l'analyse de similarité textuelle, la classification de documents ou la recommandation de contenus multilingues. Ce qui le distingue, c'est son équilibre entre efficacité et précision, grâce à une architecture optimisée pour des tâches de compréhension sémantique à grande échelle.

Documentation

https://huggingface.co/sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2 with ONNX weights to be compatible with Transformers.js.

Usage (Transformers.js)

If you haven't already, you can install the Transformers.js JavaScript library from NPM using:

Bash
npm i @huggingface/transformers

Example: Run feature extraction.

Js
import { pipeline } from '@huggingface/transformers';

const extractor = await pipeline('feature-extraction', 'Xenova/paraphrase-multilingual-MiniLM-L12-v2');
const output = await extractor('This is a simple test.');

Note: Having a separate repo for ONNX weights is intended to be a temporary solution until WebML gains more traction. If you would like to make your models web-ready, we recommend converting to ONNX using 🤗 Optimum and structuring your repo like this one (with ONNX weights located in a subfolder named onnx).

Liens & Ressources
Spécifications
CatégorieEmbedding
AccèsAPI & Local
LicenceOpen Source
TarificationOpen Source
Note
1.5

Essayer paraphrase multilingual MiniLM L12 v2

Accédez directement au modèle