Qwen3-14B — плотная языковая модель с причинной структурой, содержащая 14,8 млрд параметров из серии Qwen3, предназначенная как для сложных рассуждений, так и эффективного ведения диалога. Модель поддерживает плавный переход между режимом «мышления», используемым для выполнения задач вроде математик...
Лента материалов из области искусственного интеллекта (AI)
Материалов: 78205
Qwen3-32B — плотная языковая модель с причинной структурой, содержащая 32,8 миллиарда параметров, относящаяся к серии Qwen3 и оптимизированная как для сложных рассуждений, так и эффективного ведения диалога. Модель поддерживает плавный переход между режимом «размышления», предназначенным для выполне...
Qwen3-235B-A22B — это модель типа смесь-экспертов (MoE) с параметрами 235 миллиардов, разработанная компанией Qwen, активирующая 22 миллиарда параметров за один проход прямого распространения. Модель поддерживает плавный переход между режимом «размышления», предназначенным для выполнения сложных рас...
DeepSeek-R1T-Chimera создается путем объединения моделей DeepSeek-R1 и DeepSeek-V3 (версия от 03/24), объединяя способности рассуждения модели R1 с улучшенной эффективностью обработки токенов версии V3. Модель основана на архитектуре трансформера DeepSeek-MoE и оптимизирована для общих задач генерац...
THUDM: GLM Z1 Размышление 32B — это глубокая модель рассуждений с параметрами объёмом 32 миллиарда (из серии GLM-4-Z1), оптимизированная для сложных открытых задач, требующих длительного размышления. Она построена на основе модели glm-4-32b-0414 с добавлением этапов дополнительного обучения с подкре...
GLM-Z1-9B-0414 — языковая модель с параметрами объёмом 9 миллиардов, разработанная лабораторией THUDM в рамках семейства моделей GLM-4. В её архитектуре использованы методы, изначально применявшиеся для больших моделей серии GLM-Z1: расширенное обучение с подкреплением, выравнивание парных ранжирова...
GLM-4-9B-0414 — языковая модель серии GLM-4 от компании THUDM с количеством параметров 9 миллиардов. Обучена теми же методами подкрепляющего обучения и выравнивания, что и её старшие аналоги с 32 миллиардами параметров. Благодаря этому GLM-4-9B-0414 демонстрирует высокую производительность относител...
Помощь музыкальным профессионалам в исследовании потенциала генеративного ИИ.
Токенизаторы BPE являются стандартом для современных больших языковых моделей. По умолчанию большинство токенизаторов добавляет пробел перед словом, чтобы фраза «John went away» была предварительно токенизирована как `[_John][_went][_away]`. Для сохранения обратимости при обратном преобразовании нач...
Фреймворк SRPO от Kwai AI сокращает этапы постобучения больших языковых моделей методом подкрепляющего обучения (RL) на 90%, при этом достигая уровня производительности модели DeepSeek-R1 в математике и коде. Двухэтапный подход RL с повторной выборкой истории устраняет ограничения метода GRPO. Стат...