От рассуждений на основе больших языковых моделей до BERT: двухэтапная дистилляционная структура для релевантности поиска
Краткое содержание
arXiv:2510.11056v2 Тип объявления: замена-перекрёстная Аннотация: Прогнозирование релевантности запросов и сервисов в системах поиска электронной коммерции сталкивается с жёсткими требованиями к задержке, что препятствует прямому применению больших языковых моделей (LLM). Для преодоления этого разрыва мы предлагаем двухэтапную рациональный дистилляционный фреймворк для передачи возможностей рассуждений от мощной учительской модели LLM к лёгкой, удобной для развёртывания ученической модели. На первом этапе мы устраняем ограничения общих языковых моделей путём создания адаптированной под домен учительской модели. Это достигается через трёхступенчатый процесс: предобучение, адаптированное под домен, чтобы внедрить знания платформы; контролируемая тонкая настройка для выявления навыков рассуждения; оптимизация предпочтений с помощью многомерной модели вознаграждения, чтобы обеспечить генерацию надёжных и согласованных с предпочтениями цепочек рассуждений. Затем эта модель учителя может автоматически аннотировать большие объёмы пар запрос-сервис из логов поиска как метками релевантности, так и цепочками рассуждений. На втором этапе, чтобы...
Полный текст статьи пока не загружен.