← Вернуться к списку

Мистраль: МиксТрэл 8х22Б (базовая версия) (mistralai/mixtral-8x22b)

Краткое содержание

Mixtral 8×22B — масштабная языковая модель от компании Mistral AI. Она состоит из восьми экспертов, каждый из которых содержит 22 миллиарда параметров, причём одновременно используется два эксперта на токен. Модель была выпущена через X. #moe

Полный текст статьи пока не загружен.