Могут ли объяснения текста, созданные моделями больших языковых моделей (LLM), улучшить производительность классификации модели? Эмпирическое исследование
Краткое содержание
arXiv:2508.09776v2 Тип объявления: замена-перекрёстная публикация Аннотация: В быстро развивающейся области интерпретируемой обработки естественного языка (Explainable NLP) текстовые объяснения, то есть обоснования, подобные человеческим рассуждениям, играют ключевую роль в интерпретации прогнозов моделей и обогащении датасетов интерпретируемыми метками. Традиционные подходы основаны на ручной разметке, что является дорогостоящим, трудоёмким процессом и ограничивает масштабирование. В данной работе мы представляем автоматизированный фреймворк, использующий несколько современных больших языковых моделей (LLM) для генерации высококачественных текстовых объяснений. Мы строго оцениваем качество генерируемых LLM объяснений с помощью обширного набора показателей качества генерации естественного языка (Natural Language Generation — NLG). Более того, мы исследуем влияние этих объяснений на производительность предварительно обученных языковых моделей (PLM) и LLM в задаче вывода естественных языков на двух различных эталонных наборах данных. Наши эксперименты показывают, что автоматические объяснения демонстрируют высокую конкурентоспособность...
Полный текст статьи пока не загружен.