← Вернуться к списку
DeepSeek: R1 Дистиллированный LLaMA 70B (бесплатно) (deepseek/deepseek-r1-distill-llama-70b)
Краткое содержание
DeepSeek R1 Distill Llama 70B — дистиллированная большая языковая модель, основанная на архитектуре Llama-3.3-70B-Instruct и использующая результаты работы модели DeepSeek R1. Модель объединяет передовые методы дистилляции, обеспечивая высокую производительность сразу по нескольким бенчмаркам, включая следующие показатели: - AIME 2024 (проход @1): 70,0% - MATH-500 (проход @1): 94,5% - Рейтинг CodeForces: 1633 Модель применяет дообучение на основе результатов DeepSeek R1, что позволяет ей демонстрировать конкурентоспособную производительность, сопоставимую с показателями крупных современных моделей.
Полный текст статьи пока не загружен.