Климат и устойчивое развитие
Лента материалов из области искусственного интеллекта (AI)
Материалов: 76386
Llama-3.1-Nemotron-Nano-8B-v1 — компактная большая языковая модель (LLM), созданная на основе модели Meta Llama-3.1-8B-Instruct и оптимизированная специально для выполнения рассуждений, ведения диалоговых взаимодействий, генерации с использованием извлечения информации (RAG) и приложений вызова инст...
Nemotron Super v1 — это крупная языковая модель (LLM) объемом 49 млрд параметров, оптимизированная для продвинутого рассуждения, диалоговых взаимодействий, генерации с использованием поиска по внешним источникам (RAG) и выполнения внешних запросов. Модель создана на основе архитектуры Meta Llama-3.3...
Llama-3.1-Nemotron-Ultra-253B-v1 — это крупная языковая модель (LLM), оптимизированная для продвинутого рассуждения, интерактивного общения с человеком, генерации с использованием поиска по данным (RAG) и выполнения инструментальных запросов. Модель разработана на основе Meta Llama-3.1-405B-Instruct...
Llama 3.1 Swallow 8B — это большая языковая модель, созданная путем непрерывной предобучающей тренировки на основе модели Meta Llama 3.1 8B. Модель Llama 3.1 Swallow улучшила возможности работы с японским языком исходной версии Llama 3.1, сохранив при этом способности обработки английского языка. Д...
Llama 4 Maverick 17B Instruct (128E) — высокоемкая мультимодальная языковая модель от компании Meta, построенная на архитектуре типа смесь-экспертов (MoE), включающей 128 экспертов и использующей 17 миллиардов активных параметров на один проход прямого распространения (всего 400 млрд). Модель поддер...
Llama 4 Scout 17B Instruct (16E) — это экспертная смесь (MoE) языковой модели, разработанная компанией Meta, активирующая 17 миллиардов параметров из общего числа 109 млрд. Она поддерживает нативный мультимодальный ввод (текст и изображение), а также многоязычный вывод (текст и код) на 12 поддержива...
Общее естествознание
OpenHands LM версии 0.1 — это открытая кодовая модель объёмом 32 миллиарда параметров, дообученная от модели Qwen2.5-Coder-32B-Instruct с использованием методов подкрепляющего обучения, изложенных в SWE-Gym. Она оптимизирована для автономных агентов разработки программного обеспечения и демонстрируе...
Мы исследуем границы AGI, уделяя приоритетное внимание технической безопасности, проактивной оценке рисков и сотрудничеству с сообществом искусственного интеллекта.