MSLoRA: Адаптация низкого ранга с несколькими масштабами посредством перераспределения весов внимания
Краткое содержание
arXiv:2511.12400v1 Тип объявления: новый Аннотация: Мы представляем MSLoRA — адаптер, независимый от архитектуры базовой сети, эффективно использующий параметры и переопределяющий отклик признаков вместо повторного дообучения самой базовой модели. Современные методы адаптации низкого ранга преимущественно ограничены трансформерами видения (ViT), испытывая трудности с обобщением на другие архитектуры. MSLoRA унифицирует процесс адаптации как для свёрточных нейронных сетей (CNN), так и для ViT путём объединения линейной проекции низкого ранга с многошкальной нелинейной трансформацией, совместно модулирующей пространственное и канальное внимание. Два компонента объединяются через поэлементное умножение и остаточное соединение, формируя лёгкий модуль, который смещает акцент внимания на признаки, оставляя веса предварительно натренированной модели замороженными. Обширный набор экспериментов показывает, что MSLoRA последовательно улучшает переносимость производительности на задачах классификации, обнаружения объектов и сегментации изображений, используя примерно менее 5% параметров базовой сети. Конструкция дополнительно обеспечивает стабильную оптимизацию...
Полный текст статьи пока не загружен.