← Вернуться к списку
Nous: Гермес 2 Mixtral 8×7B DPO (nousresearch/nous-hermes-2-mixtral-8x7b-dpo)
Краткое содержание
Nous Hermes 2 Mixtral 8x7B DPO — новая флагманская модель от Nous Research, прошедшая обучение на основе архитектуры Mixtral 8x7B MoE (LLM). Модель была обучена на более чем миллионе записей преимущественно сгенерированных GPT-4 данных, а также на других высококачественных открытых датасетах из различных областей ИИ, достигнув передовых результатов в выполнении множества задач. #moe
Полный текст статьи пока не загружен.