← Вернуться к списку

Nous: Гермес 2 Mixtral 8×7B DPO (nousresearch/nous-hermes-2-mixtral-8x7b-dpo)

Краткое содержание

Nous Hermes 2 Mixtral 8x7B DPO — новая флагманская модель от Nous Research, прошедшая обучение на основе архитектуры Mixtral 8x7B MoE (LLM). Модель была обучена на более чем миллионе записей преимущественно сгенерированных GPT-4 данных, а также на других высококачественных открытых датасетах из различных областей ИИ, достигнув передовых результатов в выполнении множества задач. #moe

Полный текст статьи пока не загружен.