par mlx-community
Open source · 625k downloads · 34 likes
Kimi K2.5 est un modèle de langage avancé conçu pour comprendre et générer du texte avec une grande précision. Il excelle dans les tâches de conversation, de réponse à des questions complexes et de synthèse d’informations, grâce à sa capacité à traiter des contextes étendus et à produire des réponses nuancées. Ses principaux cas d’usage incluent l’assistance conversationnelle, l’analyse de documents, la génération de contenu créatif ou technique, et l’aide à la prise de décision. Ce qui le distingue, c’est son équilibre entre performance et efficacité, offrant des résultats de haute qualité tout en restant accessible pour une utilisation locale ou sur des infrastructures variées.
This model mlx-community/Kimi-K2.5 was converted to MLX format from moonshotai/Kimi-K2.5 using mlx-lm version 0.30.5 (slightly modified).
pip install mlx-lm
from mlx_lm import load, generate
model, tokenizer = load("mlx-community/Kimi-K2.5")
prompt = "hello"
if tokenizer.chat_template is not None:
messages = [{"role": "user", "content": prompt}]
prompt = tokenizer.apply_chat_template(
messages, add_generation_prompt=True
)
response = generate(model, tokenizer, prompt=prompt, verbose=True)