Сбросить

Преобразуйте текстовые запросы в видео высокого разрешения продолжительностью восемь секунд в Gemini Advanced и используйте Whisk Animate для преобразования изображений в анимированные клипы продолжительностью восемь секунд.

Qwen2.5-Coder-7B-Instruct — это языковая модель с инструкциями, оптимизированная для задач, связанных с кодом, таких как генерация кода, рассуждения и исправление ошибок. Она содержит 7 миллиардов параметров и основана на архитектуре Qwen2.5, включающей улучшения вроде RoPE, SwiGLU, RMSNorm и вниман...

GPT-4.1 — это ведущая крупная языковая модель, оптимизированная для продвинутого следования инструкциям, реального программирования и логического рассуждения с учетом контекста. Она поддерживает окно контекста из 1 миллиона токенов и превосходит GPT-4o и GPT-4.5 по показателям кодирования (54,6% про...

Мини-модель GPT-4.1 представляет собой компактную версию, обеспечивающую производительность, сопоставимую с GPT-4o, при значительно меньших задержках и стоимости. Она сохраняет контекстное окно размером в миллион токенов, демонстрирует результативность 45,1% на сложных оценочных инструкциях, 35,8% н...

Для задач, требующих низкой задержки, GPT-4.1 nano — самая быстрая и дешевая модель серии GPT-4.1. Она обеспечивает выдающиеся результаты при небольшом размере: окно контекста составляет 1 миллион токенов, показатель MMLU равен 80,1%, GPQA — 50,3%, Aider Polyglot Coding — 9,8%, что даже превышает по...

Llemma 7B — языковая модель, предназначенная для математики. Она была инициализирована весами Code Llama 7B и обучена на наборе данных Proof-Pile-2 объемом 200 миллиардов токенов. Модели семейства Llemma особенно сильны в цепочечном рассуждении (chain-of-thought reasoning), связанном с математически...

Настроенная модель Code LLaMA с инструкциями на основе 7 миллиардов параметров для генерации смарт-контрактов на Solidity с использованием тонкой настройки (finetuning) методом 4-битной квантованной LoRA (QLoRA), обеспечиваемым библиотекой PEFT.

QwQ-32B-ArliAI-RpR-v1 — это модель с параметрами объёмом 32 миллиарда, дообученная на основе модели Qwen/QwQ-32B с использованием специально подобранного набора данных творческого письма и ролевых игр, изначально разработанного для серии RPMax. Модель предназначена для поддержания связности и рассуж...

DeepCoder-14B-Preview — это модель генерации кода с 14 миллиардами параметров, дообученная на основе модели DeepSeek-R1-Distill-Qwen-14B методом усиленного обучения с использованием алгоритма GRPO+ и итерационного увеличения длины контекста. Она оптимизирована для синтеза программ с длинным контекст...