← Вернуться к списку

Эта статья потенциально объясняет происходящее с большими языковыми моделями и то, насколько их проблема галлюцинаций кажется более серьезной, чем обычно

Краткое содержание

Итак, то, что показывает вышеуказанный график, заключается в том, что большая языковая модель очень хорошо решает средние задачи и отлично справляется с комбинацией существующих знаний. Поэтому, если я задаю вопрос за пределами моей области экспертизы, я получаю действительно хорошие ответы, но по мере приближения к границе знаний (точке, где то, что вы уже знаете, встречается с тем, что вы пытаетесь открыть), очень часто результаты становятся случайными и менее конкретными. Это связано с отсутствием релевантной структуры в обучающих данных? И модель не знает, куда идти, плюс она забывает, что происходило во время предыдущих взаимодействий. Я понимаю, что большие языковые модели иногда ошибаются при создании релевантного контента, потому что они никогда этого не видели, но если мы подаем релевантную информацию в модель, а затем задаем вопросы на основе этой информации, то модель выдает гораздо более релевантный результат, чем раньше. То же самое происходит и в NotebookLM, где вы предоставляете релевантную информацию, а модель отвечает точными вопросами, основанными на текстах. Но я думаю, что именно этого не хватает моделям ИИ в широком смысле — контекста.

Полный текст статьи пока не загружен.