Одновременный машинный перевод с использованием больших языковых моделей
Краткое содержание
arXiv:2309.06706v3 Тип объявления: замена Аннотация: Системы реального одновременного машинного перевода (SimulMT) сталкиваются с большим количеством проблем помимо компромисса между качеством и задержкой. Им также приходится решать проблемы, связанные с устойчивостью к шумному вводу, обработкой длинных контекстов и гибкостью для внедрения знаний. Эти вызовы требуют моделей с сильными возможностями понимания и генерации естественного языка, которыми специализированные модели машинного перевода часто не обладают. В данной статье мы исследуем возможность применения больших языковых моделей (LLM) к задачам SimulMT путем использования существующих методов инкрементального декодирования совместно с новым предложенным алгоритмом RALCP для снижения задержки. Мы провели эксперименты с использованием модели \texttt{Llama2-7b-chat} на девяти различных языках из набора данных MUST-C. Результаты показывают, что LLM превосходит специализированные модели машинного перевода по показателям BLEU и LAAL. Дальнейший анализ показывает, что LLM имеет преимущества с точки зрения эффективности настройки и устойчивости. Однако она демонстрирует...
Полный текст статьи пока не загружен.