← Вернуться к списку

Цель еще не достигнута: смогут ли большие языковые модели превзойти специализированные меньшие seq2seq-модели в задаче преобразования поэзии в прозу?

Краткое содержание

arXiv:2511.08145v1 Тип объявления: новый Аннотация: Большие языковые модели (LLM) всё чаще рассматриваются как универсальные решения общего назначения для широкого круга задач обработки естественного языка, особенно применительно к английскому языку. Но сохраняется ли эта предпосылка для малоресурсных морфологически богатых языков, таких как санскрит? Мы исследуем этот вопрос путём сравнения LLM-моделей, настроенных на инструкции и контекстуальное подсказывание, с меньшими специализированными моделями кодировщик-декодер на задаче преобразования поэтического текста на санскрите в прозу. Эта задача внутренне сложна: стихи на санскрите демонстрируют свободный порядок слов наряду с жёсткими метрическими ограничениями, а преобразование их в каноническую прозу (анвая) требует многоступенчатого рассуждения, включающего сегментацию сложных слов, разрешение зависимостей и синтаксическое линейное упорядочивание. Это делает её идеальной тестовой площадкой для оценки способности больших языковых моделей превзойти специализированные модели. Для LLM мы применяем тонкую настройку инструкций на общих моделях и разрабатываем шаблоны контекстного обучения, основанные на грамматике Панини и классических комментариях.

Полный текст статьи пока не загружен.