par LiquidAI
Open source · 224k downloads · 155 likes
Le modèle LFM2.5 1.2B Instruct GGUF est une solution d'IA légère conçue pour fonctionner directement sur des appareils locaux, optimisée pour un déploiement en périphérie. Il combine une architecture hybride améliorée avec un entraînement étendu et un apprentissage par renforcement, offrant ainsi des performances élevées tout en restant économe en ressources. Ce modèle excelle dans la compréhension et la génération de texte, répondant à des instructions complexes avec précision et cohérence. Il est particulièrement adapté aux applications nécessitant une faible latence et une confidentialité des données, comme les assistants personnels embarqués ou les outils d'analyse locale. Sa capacité à s'exécuter sur des appareils modestes le distingue des modèles cloud traditionnels, tout en garantissant une expérience utilisateur fluide et réactive.
LFM2.5 is a new family of hybrid models designed for on-device deployment. It builds on the LFM2 architecture with extended pre-training and reinforcement learning.
Find more details in the original model card: https://huggingface.co/LiquidAI/LFM2.5-1.2B-Instruct
Example usage with llama.cpp:
llama-cli -hf LiquidAI/LFM2.5-1.2B-Instruct-GGUF