AI/EXPLORER
OutilsCatégoriesSitesLLMsComparerQuiz IAAlternativesPremium
—Outils IA
—Sites & Blogs
—LLMs & Modèles
—Catégories
AI Explorer

Trouvez et comparez les meilleurs outils d'intelligence artificielle pour vos projets.

Fait avecen France

Explorer

  • ›Tous les outils
  • ›Sites & Blogs
  • ›LLMs & Modèles
  • ›Comparer
  • ›Chatbots
  • ›Images IA
  • ›Code & Dev

Entreprise

  • ›Premium
  • ›À propos
  • ›Contact
  • ›Blog

Légal

  • ›Mentions légales
  • ›Confidentialité
  • ›CGV

© 2026 AI Explorer·Tous droits réservés.

AccueilLLMsTinySapBERT from TinyPubMedBERT v1.0

TinySapBERT from TinyPubMedBERT v1.0

par dmis-lab

Open source · 2k downloads · 0 likes

0.0
(0 avis)EmbeddingAPI & Local
À propos

TinySapBERT est un modèle de langage spécialisé dans la représentation d'entités biomédicales, conçu pour être léger et efficace. Il s'appuie sur une approche inspirée de SapBERT, optimisée pour des tâches comme la reconnaissance d'entités nommées (NER) dans le domaine médical. Ce modèle se distingue par sa taille réduite, facilitant son déploiement tout en conservant une bonne précision sur des données biomédicales. Il est particulièrement adapté aux applications nécessitant une analyse rapide et fiable de textes scientifiques ou cliniques. TinySapBERT s'inscrit dans l'écosystème KAZU, offrant une solution accessible pour les chercheurs et les entreprises travaillant dans le secteur de la santé.

Documentation

This model repository presents "TinySapBERT", tiny-sized biomedical entity representations (language model) trained using official SapBERT code and instructions (Liu et al., NAACL 2021). We used our TinyPubMedBERT, a tiny-sized LM, as an initial starting point to train using the SapBERT scheme.
cf) TinyPubMedBERT is a distillated PubMedBERT (Gu et al., 2021), open-sourced along with the release of the KAZU (Korea University and AstraZeneca) framework.

  • For details, please visit KAZU framework or see our paper entitled Biomedical NER for the Enterprise with Distillated BERN2 and the Kazu Framework, (EMNLP 2022 industry track).
  • For the demo of KAZU framework, please visit http://kazu.korea.ac.kr

Citation info

Joint-first authorship of Richard Jackson (AstraZeneca) and WonJin Yoon (Korea University).
Please cite the simplified version using the following section, or find the full citation information here

INI
@inproceedings{YoonAndJackson2022BiomedicalNER,
  title="Biomedical {NER} for the Enterprise with Distillated {BERN}2 and the Kazu Framework",
  author="Yoon, Wonjin and Jackson, Richard and Ford, Elliot and Poroshin, Vladimir and Kang, Jaewoo",
  booktitle="Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing: Industry Track",
  month = dec,
  year = "2022",    
  address = "Abu Dhabi, UAE",
  publisher = "Association for Computational Linguistics",
  url = "https://aclanthology.org/2022.emnlp-industry.63",
  pages = "619--626",
}

The model used resources of SapBERT paper. We appreciate the authors for making the resources publicly available!

Rust
Liu, Fangyu, et al. "Self-Alignment Pretraining for Biomedical Entity Representations." 
Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. 2021.

Contact Information

For help or issues using the codes or model (NER module of KAZU) in this repository, please contact WonJin Yoon (wonjin.info (at) gmail.com) or submit a GitHub issue.

Liens & Ressources
Spécifications
CatégorieEmbedding
AccèsAPI & Local
LicenceOpen Source
TarificationOpen Source
Note
0.0

Essayer TinySapBERT from TinyPubMedBERT v1.0

Accédez directement au modèle