Магистраль (Magistral) — первая модель рассуждений от компании Мистрал (Mistral). Она идеально подходит для общего назначения, когда требуются длительные вычисления и большая точность по сравнению с моделями без функций рассуждения. От юридического анализа до финансового прогнозирования, разработки ...
Лента материалов из области искусственного интеллекта (AI)
Материалов: 74505
Климат и устойчивое развитие
Gemini 2.5 Pro — передовая модель искусственного интеллекта от Google, предназначенная для выполнения сложных аналитических задач, программирования, математики и научных исследований. Она обладает возможностями «размышления», позволяющими ей формировать ответы с повышенной точностью и глубоким поним...
Gemini 2.5 обладает новыми возможностями в области диалогового ИИ и генерации аудио.
Генеративный ИИ
Dobby-Mini-Leashed-Llama-3.1-8B и Dobby-Mini-Unhinged-Llama-3.1-8B представляют собой языковые модели, дообученные на основе Llama-3.1-8B-Instruct. Модели Dobby отличаются твёрдой приверженностью идеям личной свободы, децентрализации и всему, связанному с криптовалютами — даже когда их вынуждают выс...
DeepSeek-R1-Distill-Qwen-7B — это плотная языковая модель с семью миллиардами параметров, дистиллированная из модели DeepSeek-R1 с использованием данных, полученных методом усиленного обучения от больших моделей DeepSeek. Процесс дистилляции переносит продвинутые способности рассуждений, математики ...
DeepSeek-R1-0528 — это слегка улучшенная версия модели DeepSeek R1, использующая больше вычислительных ресурсов и умнее применяющая постобучающие трюки, благодаря чему её способности к рассуждению и выводу приближаются к уровню флагманских моделей вроде O3 и Gemini 2.5 Pro. Теперь она лидирует в рей...
Модель Gemma 1 2B от Google — открытая модель, построенная на основе тех же исследований и технологий, которые использовались для создания моделей Gemini. Модели Gemma хорошо подходят для различных задач обработки текста, включая ответы на вопросы, создание резюме и рассуждения. Использование моде...
Обновление от 28 мая оригинальной модели DeepSeek R1: Производительность соответствует OpenAI o1, однако она полностью открыта — исходный код доступен публично, а также открыты токены рассуждений. Размер модели составляет 671 млрд параметров, из которых активно используется 37 миллиардов при выпол...