Семейство моделей Llama3 Sonar — последняя разработка компании Perplexity. По сравнению с предыдущими моделями семейства Sonar оно превосходит их по стоимости, скорости работы и производительности. Это обычная автономная языковая модель (LLM), однако онлайн-версия данной модели имеет доступ к Интер...
Лента материалов из области искусственного интеллекта (AI)
Материалов: 75594
DeepSeek-V2.5 — это улучшенная версия, объединяющая возможности DeepSeek-V2-Chat и DeepSeek-Coder-V2-Instruct. Новая модель интегрирует общие способности и навыки программирования двух предыдущих версий. Для получения подробной информации о модели посетите страницу **DeepSeek-V2**.
GPT-4o («o» означает «omni») — новейшая модель искусственного интеллекта от компании OpenAI, поддерживающая ввод текста и изображений с выводом результата в виде текста. Она сохраняет уровень интеллектуальных возможностей модели GPT-4 Turbo, одновременно демонстрируя двукратное увеличение скорости р...
Эта модель защиты содержит 8 миллиардов параметров и основана на семействе Llama 3. Подобно своему предшественнику — LlamaGuard 1 — она способна классифицировать как запросы (prompt), так и ответы (response). LlamaGuard 2 функционирует аналогично обычному языковой модели (LLM), генерируя текст, кот...
GPT-4o («o» означает «omni») — новейшая модель искусственного интеллекта от компании OpenAI, поддерживающая ввод текста и изображений с выводом результата в виде текста. Она сохраняет уровень интеллектуальных возможностей модели GPT-4 Turbo, одновременно работая вдвое быстрее и обеспечивая снижение ...
Последняя линейка моделей Meta (Llama 3) представлена различными размерами и вариантами исполнения. Это базовая предварительно обученная версия объемом 8 миллиардов параметров. Она продемонстрировала высокую производительность по сравнению с ведущими моделями закрытого типа согласно оценкам людей. ...
Последняя линейка моделей Meta (Llama 3) представлена различными размерами и вариантами исполнения. Это базовая предварительно обученная версия объемом 70 миллиардов параметров. Она продемонстрировала высокую производительность по сравнению с ведущими моделями закрытого типа согласно оценкам людей....
LLaVA Yi 34B — открытая модель, обученная тонкой настройкой языковой модели (LLM) на мультимодальных инструкциях. Это авто-регрессивная языковая модель, основанная на архитектуре трансформера. Базовая LLM: NousResearch/Nous-Hermes-2-Yi-34B. Обучение проведено в декабре 2023 года.
OLMo 7B Instruct от Института искусственного интеллекта Аллена — это модель, дообученная для ответов на вопросы. Она демонстрирует **заметную производительность** сразу на нескольких эталонных тестах, включая TruthfulQA и ToxiGen. **Открытый исходный код:** Модель, её код, контрольные точки и журна...
Inthisrecent paper, a new architecture is proposed, called xLSTM. I've implemented the sequential version in PyTorch, but it's slower than I would like, so I'm now implementing the parallel version that's explained in the appendix (page 25-26). I feel like this page might contain a mistake, or maybe...