← Вернуться к списку

Каковы современные достижения (по крайней мере частично) символьных/логических чат-ботов/ИИ-ассистентов?

Краткое содержание

ChatGPT в последнее время привлекает много внимания, и это заслуженно. Он демонстрирует впечатляющие способности в ответах на новую информацию, а также в обобщении предоставленных данных. Однако ChatGPT также регулярно допускает логические и математические ошибки. Некоторые отмечают, что он действительно старается на основе имеющихся данных «звучать правдоподобно» (почти как первокурсник, сочиняющий курсовую работу), но в целом он не очень хорош в логических выводах. Один из способов решить эту проблему — вместо использования чистой языковой модели (как, по сути, работает ChatGPT) применять семантический парсер для преобразования предложений естественного языка в логическую форму, например, логику первого порядка, логику высшего порядка, различные виды модальной логики и так далее. Этот подход также можно дополнить нейросетевыми методами — например, путем прямого обучения семантического парсера как задачи последовательность-последовательность.

Полный текст статьи пока не загружен.