AI ExplorerAI Explorer
OutilsCatégoriesSitesLLMsComparerQuiz IAAlternativesPremium

—

Outils IA

—

Sites & Blogs

—

LLMs & Modèles

—

Catégories

AI Explorer

Trouvez et comparez les meilleurs outils d'intelligence artificielle pour vos projets.

Fait avecen France

Explorer

  • Tous les outils
  • Sites & Blogs
  • LLMs & Modèles
  • Comparer
  • Chatbots
  • Images IA
  • Code & Dev

Entreprise

  • Premium
  • À propos
  • Contact
  • Blog

Légal

  • Mentions légales
  • Confidentialité
  • CGV

© 2026 AI Explorer. Tous droits réservés.

AccueilLLMsJan v3 4B base instruct gguf

Jan v3 4B base instruct gguf

par janhq

Open source · 129k downloads · 52 likes

2.2
(52 avis)ChatAPI & Local
À propos

Jan v3 4B base instruct est un modèle de langage compact de 4 milliards de paramètres, conçu comme une base optimisée pour le fine-tuning et l'assistance légère en programmation. Issu d'une distillation post-entraînement à partir d'un modèle enseignant plus large, il conserve des performances générales solides tout en offrant une meilleure capacité à suivre des instructions dès sa sortie. Grâce à sa taille réduite et son architecture efficace, il se distingue comme un point de départ idéal pour des adaptations personnalisées ou des tâches nécessitant une assistance en code. Le modèle excelle particulièrement dans les environnements où la légèreté et la réactivité sont essentielles, tout en restant polyvalent pour une large gamme d'applications. Il est accessible via l'application Jan, qui facilite son déploiement local ou son utilisation en ligne.

Documentation

Jan-v3-4B-base-instruct: a 4B baseline model for fine-tuning

GitHub License Jan App

image

Overview

Jan-v3-4B-base-instruct is a 4B-parameter model obtained via post-training distillation from a larger teacher, transferring capabilities while preserving general-purpose performance on standard benchmarks. The result is a compact, ownable base that is straightforward to fine-tune, broadly applicable and minimizing the usual capacity–capability trade-offs.

Building on this base, Jan-Code, a code-tuned variant, will be released soon.

Model Overview

This repo contains the BF16 version of Jan-v3-4B-base-instruct, which has the following features:

  • Type: Causal Language Models
  • Training Stage: Pretraining & Post-training
  • Number of Parameters: 4B in total
  • Number of Layers: 36
  • Number of Attention Heads (GQA): 32 for Q and 8 for KV
  • Context Length: 262,144 natively.

Intended Use

  • A better small base for downstream work: improved instruction following out of the box, strong starting point for fine-tuning, and effective lightweight coding assistance.

Performance

image

Quick Start

Integration with Jan Apps

Jan-v3 demo is hosted on Jan Browser at chat.jan.ai. It is also optimized for direct integration with Jan Desktop, select the model in the app to start using it.

Local Deployment

Using vLLM:

Bash
vllm serve janhq/Jan-v3-4B-base-instruct \
    --host 0.0.0.0 \
    --port 1234 \
    --enable-auto-tool-choice \
    --tool-call-parser hermes 
    

Using llama.cpp:

Bash
llama-server --model Jan-v3-4B-base-instruct-Q8_0.gguf \
    --host 0.0.0.0 \
    --port 1234 \
    --jinja \
    --no-context-shift

Recommended Parameters

For optimal performance in agentic and general tasks, we recommend the following inference parameters:

YAML
temperature: 0.7
top_p: 0.8
top_k: 20

🤝 Community & Support

  • Discussions: Hugging Face Community
  • Jan App: Learn more about the Jan App at jan.ai

📄 Citation

Bibtex
Updated Soon
Liens & Ressources
Spécifications
CatégorieChat
AccèsAPI & Local
LicenceOpen Source
TarificationOpen Source
Paramètres4B parameters
Note
2.2

Essayer Jan v3 4B base instruct gguf

Accédez directement au modèle