Масштабирование ИИ-совместимости: как избежать O(n²) сравнений без потери качества совпадений?
Краткое содержание
Я работаю над системой AI-драйвинга для сопоставления людей и хотел бы задать вопрос системного уровня, который кажется фундаментальным для этого пространства. В малом масштабе можно позволить себе попарно сравнивать пользователей и вычислять некое понятие совместимости. В крупном масштабе (миллионы пользователей) это, очевидно, становится неоправданно дорогим — как с точки зрения вычислений, так и концептуально. Наивный O(n²) подход нежизнеспособен с самого начала. Основное напряжение, о котором я думаю, заключается в следующем: • Вы хотите глубокую, высококачественную совместимость (а не поверхностную фильтрацию) • Но вы не можете сравнить всех со всеми • И вы не хотите сводить проблему к грубым категориям, которые уничтожают нюансы Таким образом, вопрос становится: как масштабировать систему, где ИИ призван «понимать» совместимость, без явного попарного сравнения всех пар? Некоторые углы, которые я активно рассматриваю: • Обученные embedding-пространства против явной попарной оценки • Прогрессивное сужение: грубое сходство → более глубокая оценка • Сигналы от пользователя в цикле, которые сокращают пространство поиска, а не...
Полный текст статьи пока не загружен.