par forkjoin-ai
Open source · 455 downloads · 0 likes
VibeVoice 1.5B est un modèle de langage optimisé pour fonctionner en local sur des appareils edge, comme les navigateurs ou les smartphones, grâce à sa conversion en format GGUF. Il excelle dans la compréhension et la génération de texte en temps réel, tout en respectant des contraintes strictes de mémoire et de latence. Ses cas d'usage principaux incluent les assistants vocaux, la transcription automatique ou encore les applications nécessitant une interaction naturelle et fluide. Ce qui le distingue, c'est son adaptation optimisée pour un déploiement sans dépendance au cloud, garantissant confidentialité et rapidité. Son architecture légère en fait un outil idéal pour des solutions embarquées performantes et accessibles.
Forkjoin.ai conversion of VibeVoice/VibeVoice-1.5B to GGUF format for edge deployment.
./llama-cli -m vibevoice-1.5b-gguf.gguf -p "Your prompt here" -n 256
Create a Modelfile:
FROM ./vibevoice-1.5b-gguf.gguf
ollama create vibevoice-1.5b-gguf -f Modelfile
ollama run vibevoice-1.5b-gguf
Forkjoin.ai runs AI models at the edge -- in-browser, on-device, zero cloud cost. These converted models power real-time inference, speech recognition, and natural language capabilities.
All conversions are optimized for edge deployment within browser and mobile memory constraints.
Apache 2.0 (follows upstream model license)