AI ExplorerAI Explorer
OutilsCatégoriesSitesLLMsComparerQuiz IAAlternativesPremium

—

Outils IA

—

Sites & Blogs

—

LLMs & Modèles

—

Catégories

AI Explorer

Trouvez et comparez les meilleurs outils d'intelligence artificielle pour vos projets.

Fait avecen France

Explorer

  • Tous les outils
  • Sites & Blogs
  • LLMs & Modèles
  • Comparer
  • Chatbots
  • Images IA
  • Code & Dev

Entreprise

  • Premium
  • À propos
  • Contact
  • Blog

Légal

  • Mentions légales
  • Confidentialité
  • CGV

© 2026 AI Explorer. Tous droits réservés.

AccueilLLMssaiga llama3 8b

saiga llama3 8b

par IlyaGusev

Open source · 378k downloads · 139 likes

2.7
(139 avis)ChatAPI & Local
À propos

Saiga Llama3 8B est un modèle de chatbot basé sur Llama-3 8B Instruct, optimisé pour interagir en russe tout en conservant les capacités multilingues de la base. Il excelle dans les conversations naturelles, la génération de texte structuré et l'adaptation à des contextes variés, grâce à un entraînement affiné sur des jeux de données russes et multilingues. Ses principaux cas d'usage incluent l'assistance conversationnelle, la création de contenu, l'éducation et le support client, avec une attention particulière portée à la fluidité et à la pertinence des réponses. Ce qui le distingue, c'est son format de prompt inspiré de Llama-3, conçu pour maximiser la cohérence et la précision des échanges, ainsi que ses versions successives améliorées par des techniques d'apprentissage par renforcement et d'optimisation des préférences.

Documentation

Saiga/Llama3 8B, Russian Llama-3-based chatbot

Based on Llama-3 8B Instruct.

Llama.cpp version: link

Colab: link

Prompt format

ОСТОРОЖНО! WARNING! LET OP!

I've changed the prompt format from ChatML to the original Llama-3 format in v4. Don't forget to switch formats!

v4, v5, v6+: LLama-3 prompt format:

Ruby
<|begin_of_text|><|start_header_id|>system<|end_header_id|>

Ты — Сайга, русскоязычный автоматический ассистент. Ты разговариваешь с людьми и помогаешь им.<|eot_id|><|start_header_id|>user<|end_header_id|>

Как дела?<|eot_id|><|start_header_id|>assistant<|end_header_id|>

Отлично, а у тебя?<|eot_id|><|start_header_id|>user<|end_header_id|>

Шикарно. Как пройти в библиотеку?<|eot_id|><|start_header_id|>assistant<|end_header_id|>

v2, v3: ChatML prompt format:

Ruby
<|im_start|>system
Ты — Сайга, русскоязычный автоматический ассистент. Ты разговариваешь с людьми и помогаешь им.<|im_end|>
<|im_start|>user
Как дела?<|im_end|>
<|im_start|>assistant
Отлично, а у тебя?<|im_end|>
<|im_start|>user
Шикарно. Как пройти в библиотеку?<|im_end|>
<|im_start|>assistant

Code example

Python
# Исключительно ознакомительный пример.
# НЕ НАДО ТАК ИНФЕРИТЬ МОДЕЛЬ В ПРОДЕ.
# См. https://github.com/vllm-project/vllm или https://github.com/huggingface/text-generation-inference

import torch
from transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfig

MODEL_NAME = "IlyaGusev/saiga_llama3_8b"
DEFAULT_SYSTEM_PROMPT = "Ты — Сайга, русскоязычный автоматический ассистент. Ты разговариваешь с людьми и помогаешь им."

model = AutoModelForCausalLM.from_pretrained(
    MODEL_NAME,
    load_in_8bit=True,
    torch_dtype=torch.bfloat16,
    device_map="auto"
)
model.eval()

tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME)
generation_config = GenerationConfig.from_pretrained(MODEL_NAME)
print(generation_config)

inputs = ["Почему трава зеленая?", "Сочини длинный рассказ, обязательно упоминая следующие объекты. Дано: Таня, мяч"]
for query in inputs:
    prompt = tokenizer.apply_chat_template([{
        "role": "system",
        "content": DEFAULT_SYSTEM_PROMPT
    }, {
        "role": "user",
        "content": query
    }], tokenize=False, add_generation_prompt=True)
    data = tokenizer(prompt, return_tensors="pt", add_special_tokens=False)
    data = {k: v.to(model.device) for k, v in data.items()}
    output_ids = model.generate(**data, generation_config=generation_config)[0]
    output_ids = output_ids[len(data["input_ids"][0]):]
    output = tokenizer.decode(output_ids, skip_special_tokens=True).strip()
    print(query)
    print(output)
    print()
    print("==============================")
    print()

Output examples

Makefile
User: Почему трава зеленая? 
Saiga: Трава выглядит зеленым из-за наличия в ней хлорофилла – пигмента, который помогает растениям поглощать солнечную энергию для процесса фотосинтеза.
Хлорофилл поглощает световые лучи с длиной волны 400-500 нанометров (ближе к синему) и отражает лучи с длиной волны 600-700 нанометров (ближе к красному), что делает его видимым как зеленый цвет.
Таким образом, зеленый цвет является результатом того, как хлорофилл взаимодействует со светом, обеспечивая растения необходимой энергии для роста и развития.
Makefile
User: Сочини длинный рассказ, обязательно упоминая следующие объекты. Дано: Таня, мяч
Saiga: В небольшой деревушке под открытым небом жила девочка по имени Таня. Она была очень активной и любящей играть в различные виды спорта. Однажды, когда она прогуливалась по полям, увидела на земле лежащий мяч. Это был старый, но все еще пригодный для игры мячик.
Таня сразу же решила взять его себе домой и показать своему другу Мише. Мишка тоже обожал футбол и всегда рад был бы провести время вместе со своими друзьями. Когда они вернулись домой, Таня показала ему найденный мячик и предложила сыграть в футбол.
Мишка был счастлив, что у них появился новый мяч, и они сразу же начали готовиться к матчу. Они построили две команды и начали игру. Играли они до вечера, а потом решили сделать перерыв и приготовить ужин.
После ужина они продолжили игру, теперь уже с большим энтузиазмом и страстью. В конце концов, победителем стала команда Тани, которая забила больше голов. Все закончилось веселым праздником и хорошими воспоминаниями о проведенном времени.
На следующий день Таня и Миша решили пригласить своих других друзей на игру. Они собрали всех в одном месте и провели ещё один захватывающий матч. Этот день также стал незабываемым благодаря новому мячу, который принес так много радости и улыбок.
Итак, этот маленький мяч, который Таня нашла на поле, стал не просто предметом для игр, но и символом дружбы и веселья между детьми. Он помог им создать незабываемые моменты и укрепил их отношения.

Versions

v7:

  • 17e1bcc9c6d3e31852a95a168f7d3778f395cd2a
  • Other name: saiga_llama3_8b_abliterated_sft_m11_d7_kto_m7_d7
  • SFT dataset config: sft_d7.json
  • SFT model config: saiga_llama3_8b_sft_m11.json
  • KTO dataset config: pref_d7.json
  • KTO model config: saiga_llama3_8b_kto_m7.json
  • SFT wandb: link
  • KTO wandb: link

v6:

  • b662833f247ca04f1843b356e7ff3ee4aef8086a
  • Other name: saiga_llama3_8b_sft_m10_d1_kto_m2_d2
  • SFT dataset config: sft_d1.json
  • SFT model config: saiga_llama3_8b_sft_m10.json
  • KTO dataset config: pref_d2.json
  • KTO model config: saiga_llama3_8b_kto_m2.json
  • SFT wandb: link
  • KTO wandb: link

v5:

  • d947b00c56683cd4b2f7ce707edef89318027be4
  • KTO-tune over v4, dataset: lmsys_clean_ru_preferences
  • wandb link

v4:

  • 1cc945d4ca2c7901cf989e7edaac52ab24f1a7dd
  • dataset: saiga_scored, scores >= 8, c66032920556c0f21bbbed05e7e04433ec954c3d
  • wandb link

v3:

  • c588356cd60bdee54d52c2dd5a2445acca8aa5c3
  • dataset: saiga_scored, scores >= 8, d51cf8060bdc90023da8cf1c3f113f9193d6569b
  • wandb link

v2:

  • ae61b4f9b34fac9856d361ea78c66284a00e4f0b
  • dataset code revision d0d123dd221e10bb2a3383bcb1c6e4efe1b4a28a
  • wandb link
  • 5 datasets: ru_turbo_saiga, ru_sharegpt_cleaned, oasst1_ru_main_branch, gpt_roleplay_realm, ru_instruct_gpt4
  • Datasets merging script: create_short_chat_set.py

Evaluation

  • Dataset: https://github.com/IlyaGusev/rulm/blob/master/self_instruct/data/tasks.jsonl
  • Framework: https://github.com/tatsu-lab/alpaca_eval
  • Evaluator: alpaca_eval_cot_gpt4_turbo_fn

Pivot: chatgpt_3_5_turbo

modellength_controlled_winratewin_ratestandard_erroravg_length
chatgpt_4_turbo76.0490.001.461270
chatgpt_3_5_turbo50.0050.000.00536
saiga_llama3_8b, v649.3368.312.261262
sfr-iter-dpo49.1174.942.131215
suzume49.0571.572.201325
saiga_llama3_8b, v748.9569.402.251266
saiga_llama3_8b, v547.1366.182.311194
saiga_llama3_8b, v443.6465.902.311200
saiga_llama3_8b, v336.9761.082.381162
saiga_llama3_8b, v233.0748.192.451166
saiga_mistral_7b23.3835.992.34949

Pivot: sfr

modellength_controlled_winratewin_ratestandard_erroravg_length
sfr50.0050.000.001215
saiga_llama3_8b, v748.9549.162.461266
saiga_llama3_8b, v646.9147.232.451262
suzume_8b43.6948.192.461325
Liens & Ressources
Spécifications
CatégorieChat
AccèsAPI & Local
LicenceOpen Source
TarificationOpen Source
Paramètres8B parameters
Note
2.7

Essayer saiga llama3 8b

Accédez directement au modèle