Модель слияния на основе Llama-2-13B, созданная благодаря вычислительным ресурсам сообщества KoboldAI. Это объединение моделей: - KoboldAI/LLaMA2-13B - chaoyi-wu/MedLLaMA_13B - Doctor-Shotgun/llama-2-13b-chat-limarp-v2-merged #слияние
Лента материалов из области искусственного интеллекта (AI)
Материалов: 74521
Моя область — политическая экономия и теория игр. Я интересуюсь дискуссиями об ИИ-рисках и выравнивании, но пока не смог найти работ на эту тему, которые бы серьезно опирались на классическую аксиоматическую теорию рационального выбора (ТРЧ). Некоторые утверждения, на мой взгляд, противоречат основн...
OpenChat 7B — библиотека открытых моделей естественного языка, дообученная методом "C-RLFT (усиленное обучение с подкреплением с условием)" — подход, вдохновлённый офлайн-обучением с подкреплением. Она была натренирована на смешанных по качеству данных без меток предпочтений. - Для версии OpenChat,...
Настроенная модель на основе mistralai/Mistral-7B-v0.1 на открытом датасете Open-Orca/SlimOrca, согласованная с использованием алгоритма DPO (Direct Preference Optimization). Для получения дополнительной информации обратитесь к блогу: Практика контролируемого дообучения и прямой оптимизации предпочт...
Я хочу обнаруживать людей, которые НЕ носят жилеты СИЗ, используя предварительно обученную модель обнаружения объектов, такую как YOLO или Grounding Dino. Модели способны обнаруживать людей и жилеты по отдельности, но я не уверен, как обнаружить человека БЕЗ жилета. Как лучше всего это сделать в общ...
Модель Anthropic для низкоотложенной (с низкой задержкой), высокопроизводительной генерации текста. Поддерживает сотни страниц текста.
Claude 2 предлагает улучшения ключевых возможностей для предприятий — включая передовую в отрасли контекстную область размером до 200 тысяч токенов, значительное снижение частоты появления ложной информации от модели, поддержку системных подсказок и новую бета-функцию: использование инструментов.
Claude 2 предлагает улучшения ключевых возможностей для предприятий — включая передовую в отрасли контекстную область размером до 200 тысяч токенов, значительное снижение частоты появления ложной информации от модели, поддержку системных подсказок и новую бета-функцию: использование инструментов.
Продолжение модели OpenHermes 2, обученной на дополнительных наборах данных кода. Потенциально наиболее интересным результатом обучения на хорошем соотношении (оценка около 7-14% от общего набора данных) инструкций по коду стало повышение производительности по нескольким не-кодовым бенчмаркам, включ...
Эта модель была обучена на основе модели Yi-34B в течение трёх эпох на датасете Capybara. Это первая 34-миллиардная модель от Nous и первая модель от Nous с длиной контекста до 200 тысяч токенов.