Согласованность — ключ к обнаружению галлюцинаций в тексте, сгенерированном LLM, через проверку противоречий в ключевых фактах
Краткое содержание
arXiv:2511.12236v1 Тип объявления: cross Аннотация: Большие языковые модели (LLM), несмотря на их впечатляющие способности к генерации текста, часто подвержены галлюцинациям и порождают текст, который фактически неверен и не основан на реальных знаниях. Это создает серьезные риски в таких областях, как здравоохранение, финансы и поддержка клиентов. Типичный способ использования LLM — через API, предоставляемые поставщиками моделей, когда нет доступа к весам модели или возможности её дообучения. Существующие методы обнаружения галлюцинаций в таких условиях, когда доступ к модели ограничен или связан с нехваткой ресурсов, обычно требуют множественных вызовов LLM через API, что увеличивает задержки и стоимость использования API. Мы представляем CONFACTCHECK, эффективный подход к обнаружению галлюцинаций, который не использует никакой внешней базы знаний и работает на основе простой интуиции: ответы на фактологические проверки (фактические пробы) внутри сгенерированного текста должны быть согласованными как внутри одной LLM, так и между различными LLM. Результаты строгой эмпирической оценки на нескольких
Полный текст статьи пока не загружен.