← Вернуться к списку

Состояние дел в области классификации текста для южнославянских языков: тонкая настройка (fine-tuning) или подсказки (prompting)?

Краткое содержание

arXiv:2511.07989v1 Тип объявления: кросс Аннотация: До недавнего времени модели типа BERT с тонкой настройкой обеспечивали передовые результаты в задаче классификации текста. С появлением моделей декодеров, настроенных на инструкции, широко известных как большие языковые модели (LLM), область исследований всё больше смещается в сторону методов нулевого выстрела и малого числа примеров. Однако производительность LLM в задаче классификации текста, особенно для менее ресурсообеспеченных языков, остаётся недостаточно изученной. В данной работе мы оцениваем производительность современных языковых моделей на задачах классификации текста для нескольких южнославянских языков. Мы сравниваем свободно доступные предварительно настроенные модели типа BERT с рядом открытых и закрытых источников больших языковых моделей (LLM) по трём задачам в трёх областях: классификация эмоциональной окраски парламентских выступлений, тематическая классификация новостных статей и парламентских выступлений, а также идентификация жанра веб-текстов. Наши результаты показывают, что LLM демонстрируют сильную производительность в режиме нулевого выстрела, часто сопоставимую или превосходящую...

Полный текст статьи пока не загружен.