par ggml-org
Open source · 226k downloads · 6 likes
Le modèle *stories15M MOE* est une version expérimentale conçue pour générer des récits ou des histoires courtes, idéale pour des usages ludiques ou créatifs. Il s’appuie sur une architecture spécialisée, combinant plusieurs experts pour enrichir la diversité des réponses, bien qu’il ne soit pas optimisé pour des applications professionnelles. Ses principales capacités résident dans la création de textes narratifs simples, avec une touche poétique ou fantastique, comme en témoignent ses réponses inspirées de Shakespeare lorsqu’un adaptateur LoRA dédié est utilisé. Ce modèle se distingue par son approche légère et son potentiel pour des projets artistiques ou éducatifs, notamment comme compagnon pour inventer des histoires avant le coucher. Son utilisation reste cependant limitée à des contextes non critiques, en raison de sa nature expérimentale.
This model is ModelCloud/tinyllama-15M-stories repeated 4 times to make 4 experts.
The model is used for testing, not intended to be used in production (unless your product is some kind of bedtime story teller)
Weight of router is initialized randomly
A LoRA adapter trained on first 100 paragraphs of shakespeare can be found inside moe_shakespeare15M
With input: Look in thy glass
Look in thy glass was a little girl. She was only three years old and she was three years old. She wasLook in thy glass in love of the eye: That's when when the eye see thy on the sun'