Сбросить

Большая языковая модель Yi была разработана компанией 01.АИ с учетом следующих сценариев использования: поиск знаний, классификация данных, чат-боты с человеческим поведением и обслуживание клиентов. Она выделяется своей многоязычной компетентностью, особенно в испанском, китайском, японском, немец...

Модель Jamba-Instruct, представленная компанией AI21 Labs, является вариантом модели Jamba с настройкой инструкций, основанной на гибридной архитектуре SSM-трансформера, специально оптимизированной для корпоративных приложений. - Окно контекста размером 256К: позволяет обрабатывать большие объемы и...

Nemotron-4-340B-Instruct — англоязычная диалоговая модель, оптимизированная для генерации синтетических данных. Эта большая языковая модель (LLM) представляет собой дообученную версию базовой модели Nemotron-4-340B-Base, предназначенной для одношаговых и многошаговых сценариев общения с контекстной ...

Новичок здесь. Я разработал приложение, которое по сути выполняет следующие действия: выполняет распознавание текста (OCR), проверяет, содержатся ли слова в полученном тексте, и затем выполняет действие. Если ни одного слова из заданного списка не обнаружено, то использует алгоритмы сходства строк, ...

Claude 3.5 Sonnet обеспечивает возможности лучше Opus, скорость быстрее Sonnet'а при тех же ценах Sonnet. Sonnet особенно хорош в следующих областях: - Программирование: автономное написание, редактирование и выполнение кода с возможностью анализа и отладки ошибок - Наука о данных: усиливает чело...

отправлено /u/B3_Kind_R3wind_[ссылка][комментарии]

Euryale 70B v2.1 — это модель от Sao10k, ориентированная на творческую ролевую игру. — Улучшена точность следования подсказкам (промптам). — Повышено качество анатомии и пространственного восприятия. — Значительно лучше адаптируется к уникальным и нестандартным форматам оформления/ответов. — Очень ...

Переплетенность (perplexity) $i$-го токена в последовательности номер $k$ определяется следующим образом: $$ P_{ki} = \frac{1}{p(t_{ki})}, $$ где $p(t_{ki})$ — вероятность появления данного токена согласно модели. Агрегированная переплетенность всей $k$-й последовательности вычисляется как геомет...

Phi-3 4K Medium — мощная модель с 14 миллиардами параметров, предназначенная для продвинутого понимания языка, рассуждений и выполнения инструкций. Оптимизированная путём контролируемой тонкой настройки и корректировки предпочтений, она показывает отличные результаты в задачах, связанных с здравым с...

StarCoder2 15B Instruct отлично справляется с задачами программирования, преимущественно на Python. Это первая самообученная открытая большая языковая модель (LLM), разработанная командой BigCode. Данная модель была дообучена без каких-либо аннотаций от человека или дистиллированных данных от пропри...