← Вернуться к списку
Nous: Гермес 2 Mixtral 8×7B SFT (nousresearch/nous-hermes-2-mixtral-8x7b-sft)
Краткое содержание
Модель Nous Hermes 2 Mixtral 8x7B SFT представляет собой версию с исключительно контролируемым дообучением модели Nous Research, натренированной на архитектуре Mixtral 8x7B MoE (Mixture-of-Experts). Обучение проводилось на более чем миллионе записей преимущественно сгенерированных GPT-4 данных, а также других высококачественных открытых датасетов из различных областей ИИ, достигая передовых результатов на множестве задач. #moe
Полный текст статьи пока не загружен.