Сбросить

Qwen-Max, основанный на Qwen2.5, обеспечивает наилучшую производительность вывода среди моделей Qwen, особенно для сложных многошаговых задач. Это масштабная модель типа MoE (Mixture of Experts), предварительно обученная на более чем 20 триллионах токенов и дополнительно дообученная методами контрол...

OpenAI o3-mini — экономичная языковая модель, оптимизированная для решения задач в области естественных наук (STEM), особенно преуспевающая в науках, математике и кодировании. Эта модель поддерживает параметр `reasoning_effort`, который можно установить в значения "high", "medium" или "low" для упр...

Недавний прорыв, вызванный моделью R1 от компании DeepSeek, потряс сообщество специалистов по искусственному интеллекту, показывая, что достижения китайских разработчиков ИИ могли недооцениваться. Производительность модели, сопоставимая с некоторыми наиболее передовыми решениями от OpenAI и Anthropi...

DeepSeek R1 Distill Qwen 1.5B — дистиллированная большая языковая модель, основанная на Qwen 2.5 Math 1.5B с использованием выходных данных от DeepSeek R1. Это очень компактная и эффективная модель, превосходящая GPT 4o 0513 по результатам тестов по математике. Другие результаты бенчмарков включают...

Mistral Small 3 — языковая модель с параметрами объёмом 24 миллиарда, оптимизированная для высокоскоростного выполнения типичных задач искусственного интеллекта. Модель распространяется под лицензией Apache 2.0 и доступна в двух версиях: предварительно обученной (pre-trained) и настроенной на выполн...

DeepSeek R1 Distill Qwen 32B — дистиллированная большая языковая модель, основанная на модели Qwen 2.5 32B с использованием выходных данных от DeepSeek R1. Она превосходит OpenAI’s o1-mini по различным бенчмаркам, достигая новых передовых результатов среди плотных моделей. Другие результаты тестов ...

DeepSeek R1 Distill Qwen 14B — дистиллированная большая языковая модель, основанная на модели Qwen 2.5 14B с использованием выходных данных от DeepSeek R1. Она превосходит OpenAI’s o1-mini по различным бенчмаркам, достигая новых передовых результатов среди плотных моделей. Другие результаты тестов ...

Общаясь с корпоративными клиентами, часто сталкиваюсь с мнением, что хотя ИИ действительно мощный инструмент, он не даст какой-либо компании устойчивого конкурентного преимущества. В конце концов, за последние два года крупные масштабируемые языковые модели стали общедоступной технологией. Я много р...

Sonar Reasoning — это модель рассуждений от компании Perplexity, основанная на DeepSeek R1. Она позволяет разработчикам использовать длинные цепочки рассуждений с интегрированным веб-поиском. Модель Sonar Reasoning не подвергается цензуре и размещается в дата-центрах США.

Sonar — лёгкий, доступный, быстрый и простой в использовании инструмент, теперь поддерживающий цитаты и возможность настройки источников. Разработан для компаний, стремящихся интегрировать облегчённые функции вопросов и ответов, оптимизированные для высокой скорости работы.