← Вернуться к списку

Mistral: Mistral Малая 3 (бесплатная версия) (mistralai/mistral-small-24b-instruct-2501)

Краткое содержание

Mistral Small 3 — языковая модель с параметрами объёмом 24 миллиарда, оптимизированная для высокоскоростного выполнения типичных задач искусственного интеллекта. Модель распространяется под лицензией Apache 2.0 и доступна в двух версиях: предварительно обученной (pre-trained) и настроенной на выполнение инструкций (instruction-tuned), обе предназначены для эффективного локального развёртывания. Модель демонстрирует точность 81% на эталонной задаче MMLU и успешно конкурирует с более крупными моделями вроде Llama 3.3 70B и Qwen 32B, при этом работая втрое быстрее на аналогичном оборудовании. Прочитайте пост блога о модели здесь.

Полный текст статьи пока не загружен.