← Вернуться к списку

контекстно-мозговой поиск графа онтологии, превосходящий RAG по эффективности использования токенов (+54% сокращение)

Краткое содержание

Для структурированных доменов (электронная коммерция, финтех, внутренние инструменты) плотный векторный поиск тратит токены на получение нерелевантных документов. Я разработал 3-сложный подход: **L1 — Обход онтологии**: Взвешенный DFS по небольшому пользовательски определенному графу (5–20 узлов). Без встраиваний, без векторной БД. **L2 — Фильтрация только по заголовкам**: дешевый LLM видит только заголовки документов и выбирает кандидатов. Быстро и дешево. **L3 — Ленивая загрузка контента**: только отобранные документы получают полную загрузку своего содержимого. **Тестирование (24 документа Notion, 4 запроса по домену):** | Метрика | RAG | kontext-brain ||---|---|---|| Входные токены | 5719 | 2614 (-54%) || Стоимость | $0.0216 | $0.0180 (-17%) || Recall@4 | 0.88 | 0.94 (+7%) |Торговля: вам нужно потратить около 10 минут на определение онтологии в YAML один раз. После этого каждый запрос извлекает выгоду из структурированного обхода вместо грубой схожести. Встроенные MCP-соединители для Notion, Jira, GitHub PR, Slack. LLM-независим благодаря LangChain4j.GitHub:https://github.com/hj1105/kontext-brainБуду рад обратной связи — особенно о том, чтобы узнать,

Полный текст статьи пока не загружен.