← Вернуться к списку

Последняя слойная логика: наделение больших языковых моделей способностью рассуждать с использованием структурированных знаний, согласованных с законами логики

Краткое содержание

arXiv:2511.07910v1 Тип объявления: новый Аннотация: Большие языковые модели (LLM) демонстрируют превосходную производительность в задачах рассуждений на естественном языке благодаря предварительному обучению на огромных объёмах неструктурированного текста, что позволяет им понимать логику естественного языка и формировать логически согласованные ответы. Однако различия между представлениями неструктурированных и структурированных знаний приводят к тому, что LLM изначально испытывают трудности с поддержанием логической согласованности, что вызывает проблемы типа «Логического дрейфа» в задачах рассуждения над структурированными знаниями, такими как вопросно-ответные системы на основе графов знаний (KGQA). Современные методы решают эту проблему путём разработки сложных рабочих процессов, встроенных в подсказки, чтобы направлять рассуждение LLM. Тем не менее, эти подходы обеспечивают лишь руководство на уровне входных данных и неспособны фундаментально устранить «Логический дрейф» в выводах LLM. Более того, их жёстко заданные рабочие процессы рассуждений не способны адаптироваться к различным задачам и графам знаний. Для повышения логической согласованности больших языковых моделей в задаче рассуждения над структурированными знаниями...

Полный текст статьи пока не загружен.