GPT-3.5 Turbo — самая быстрая модель от OpenAI. Она способна понимать и генерировать естественный язык или код и оптимизирована для обработки диалогов и традиционных задач завершения текста. Обучающие данные актуальны до сентября 2021 года.
Лента материалов из области искусственного интеллекта (AI)
Материалов: 77966
Предварительная версия модели GPT-4 с улучшенным выполнением инструкций, поддержкой формата JSON, воспроизводимыми результатами, параллельным вызовом функций и другими улучшениями. Обучающие данные: до декабря 2023 года. **Примечание:** сильно ограничена по количеству запросов от OpenAI во время пр...
Модели серии Yi — это большие языковые модели, созданные разработчиками компании 01.АИ с нуля. Данная версия была обучена на большом объёме контекста, что позволяет обрабатывать около 200 тысяч слов (~1000 абзацев) объединённого входящего и исходящего текста.
Например, обладает ли Большой Языковой Модель (LLM) с размером параметров 140 миллиардов 140 миллиардами измерений, как определено в глубоком обучении, как количество узлов на входном слое? Другой способ задать этот вопрос может быть таким: эквивалентно ли 140 млрд параметров утверждению о наличии 1...
Как я понимаю из этого источника (OpenAI), целевая функция в Policy Gradient выглядит следующим образом: $$J(\pi_{\theta})=E_{\tau\sim\pi_{\theta}}[R(\tau)],$$ где $R(\tau)=r_0+r_1+...+r_T$, с $r_t$ взятым из траектории $\tau = (s_0,a_0,s_1,a_1,...)$, где $s_0$ определяется как начальное состояние...
Модель Nous Hermes 2 Mixtral 8x7B SFT представляет собой версию с исключительно контролируемым дообучением модели Nous Research, натренированной на архитектуре Mixtral 8x7B MoE (Mixture-of-Experts). Обучение проводилось на более чем миллионе записей преимущественно сгенерированных GPT-4 данных, а т...
Nous Hermes 2 Mixtral 8x7B DPO — новая флагманская модель от Nous Research, прошедшая обучение на основе архитектуры Mixtral 8x7B MoE (LLM). Модель была обучена на более чем миллионе записей преимущественно сгенерированных GPT-4 данных, а также на других высококачественных открытых датасетах из раз...
Я дообучил две разные модели (Bert и Roberta) на наборе данных для задачи бинарной классификации и сравниваю предложения, в которых модели ошибаются. Я решил использовать веса внимания как метод интерпретируемости, чтобы понять, какие токены вносят наибольший вклад в вывод модели. У меня есть функци...
У меня есть обучаемый с подкреплением типа deep-Q-network в среде типа aminigrid. После обучения я могу поместить агента в ряд искусственно созданных ситуаций и измерить его Q-значения, а затем вывести его эффективную ставку дисконтирования на основе этих Q-значений (например, вывести фактор дисконт...
Исходная статья для переноса стиля поддерживает только один входной образ. Однако меня интересует, существует ли модель, использующая несколько изображений, предпочтительно таким образом, что пользователям не требуется предоставлять собственные файлы изображений, а достаточно обучить модель на изобр...