Расскажи мне о случае, когда ИИ солгал тебе! Я исследую математический способ остановить эти галлюцинации
Краткое содержание
Если вы хоть немного общались с ChatGPT, вас, вероятно, обманывали. Мы все через это проходили. У меня есть особенно горькое воспоминание. В прошлый Рождество игрушка, которую хотел мой ребенок, была распродана повсюду. Я попросил ИИ найти местный магазин, где она была в наличии. Он уверенно дал мне название магазина и адрес всего в 30 минутах езды. Я поспешил туда, полный надежд... только чтобы обнаружить, что это вообще не игрушечный магазин. Это был ресторан. Этот опыт побудил меня изучить, почему ИИ лгут. Недавно я обнаружил, что прямо перед галлюцинацией происходит аномальное поведение — «геометрическое искажение» — внутри внутренних математических состояний ИИ. Чтобы продвинуть это исследование, мне нужна ваша помощь. Не могли бы вы поделиться историями о том, когда ИИ вам солгал? Никакая ложь не слишком мала! Я хочу использовать эти реальные примеры в качестве данных для проверки моего исследования. Вы можете посмотреть детали моей работы на GitHub: https://github.com/yubainu/sibainu-engine Давайте построим будущее, в котором ИИ не будет лгать нам! submitted by/u/Fast_Tradition607
Полный текст статьи пока не загружен.