← Вернуться к списку

Я предоставил ИИ КТ-сканирование во время прослушивания эмоционального разговора [Р].

Оценка: 5/10

Краткое содержание

Я создал [Activation Lab](https://github.com/cstefanache/llmct) – инструмент, который можно рассматривать как МРТ-сканер для ИИ. Он делает снимки каждого слоя внутри языковой модели во время обработки диалога. Это позволяет полностью понять происходящее внутри нейронной сети при генерации, запечатлевая все внутренние состояния слоев LLM и делая снимки для интерпретируемости. Первый эксперимент: я подал Qwen 2.5 (3B) на рассмотрение 20-шаговый диалог, где пользователь резко переключался между радостью, страхом, гневом, грустью, апатией и спокойствием. На каждом шаге я сканировал внутреннее состояние ИИ и сравнивал его с эмоциональными отпечатками. Вот что я обнаружил: У ИИ есть эмоциональный стержень. Остаточный поток – основная магистраль информации – сохраняет косинусное сходство в 0,83–0,88 со эмоциональными ссылками на протяжении всего времени. Он всегда знает эмоциональную температуру диалога. Эмоции наиболее выражены на слоях 29–33. Ранние слои обнаруживают наличие эмоций. Средние слои сортируют позицию

Полный текст статьи пока не загружен.