[P] Фовеализированный слой памяти для LLM-агентов: +46,7 п.п. точности при контексте в 256 токенов (открытый код)
Краткое содержание
Всем привет! Я экспериментировал с долговременной памятью для LLM-агентов в условиях ограниченного контекста и в итоге создал «фовеальный» слой памяти, вдохновленный тем, как фокусируется глаз. Лендинг / демо / репозиторий: https://fractal-glyph-tape.vercel.app/ Вместо обычного подхода RAW-TRUNCATE («возьми последние N токенов») система: * Сохраняет диалоги как семейства фраз → глифы (китайские иероглифы используются только как символы) в структурированном адресном пространстве (мир / регион / tri_path / глубина / временной_срез). * Использует фовеальную политику при фиксированном бюджете токенов: * ~30% токенов на начальные реплики (цели/ограничения), * ~30% на семантически релевантные прошлые реплики (относительно текущего вопроса), * ~40% на недавние реплики для локальной связности. Затем я протестировал её на синтетических многотурновых диалогах, где итоговый вопрос зависит от информации, скрытой в начале и разбавленной пустышками. Результат (150 эпизодов, синтетика): При бюджете в 256 токенов: * RAW-TRUNCATE: точность ответов 26.7% * Фовеальная память (Fractal Glyph Tape): 73.3% → прирост +46.7 процентных пункта с использованием
Полный текст статьи пока не загружен.