Самоадаптивная графовая смесь моделей
Краткое содержание
arXiv:2511.13062v1 Тип: новая статья Аннотация: Графовые нейронные сети (GNN) стали мощным инструментом для обучения на графовых данных, однако recentние исследования показывают, что их прогресс в производительности начинает выходить на плато. Во многих случаях хорошо зарекомендовавшие себя модели, такие как GCN и GAT, при правильной настройке могут сравниться или даже превзойти по эффективности более сложные современные архитектуры. Эта тенденция выявляет ключевое ограничение текущего ландшафта: сложность выбора наиболее подходящей модели для конкретной графовой задачи или набора данных. Для решения этой проблемы мы предлагаем Self-Adaptive Graph Mixture of Models (SAGMM) — модульную и практичную framework, которая обучается автоматически выбирать и комбинировать наиболее подходящие GNN-модели из разнородного пула архитектур. В отличие от предыдущих подходов типа "смеси экспертов", использующих вариации одной базовой модели, SAGMM использует архитектурное разнообразие и механизм topology-aware attention gating для адаптивного назначения экспертов
Полный текст статьи пока не загружен.