← Вернуться к списку

Тонкая настройка Llama на основных и вспомогательных задачах.

Краткое содержание

Я пытаюсь выполнить тонкую настройку модели Llama одновременно для двух задач, используя библиотеку Hugging Face: Основная задача: Модель типа Causal Language Model, для которой модель изначально обучалась. Классификационная задача на основе всего входного последовательности (рекомендация статьи). Для этой задачи я использую класс LlamaForCausalLM в качестве ссылки, перезаписывая функции init и forward. Однако, я хочу объединить эти две задачи в один процесс. Основная проблема заключается в том, что языковое моделирование является итеративным процессом, где функция потерь вычисляется для каждого нового токена контекста во входной последовательности, а для классификационной задачи функция потерь должна быть вычислена только один раз. Как я могу заморозить обновление функции потерь для классификационной задачи и рассчитывать ее только после завершения языкового моделирования? Есть ли примеры, которые вы можете порекомендовать для объединения основной LM-задачи с вспомогательной классификационной задачей? Первый вопрос ко мне здесь, спасибо всем за понимание.

Полный текст статьи пока не загружен.