Бесплатное Непрерывное Обучение Серверных Моделей в Облако-Устройственной Кооперации с Модельной Гетерогенностью
Краткое содержание
arXiv:2509.25977v2 Announce Type: replace Abstract: Распространение коллаборативных вычислений «облако-устройство» позволило предоставлять интеллектуальные сервисы на распределенных периферийных устройствах, используя при этом централизованные ресурсы облака. В этом парадигме федеративное обучение (FL) стало ключевым фактором, обеспечивающим обучение моделей с сохранением конфиденциальности без передачи исходных данных с периферийных устройств в облако. Однако в связи с постоянным появлением новых данных и растущим разнообразием моделей традиционное федеративное обучение сталкивается со значительными трудностями, включая присущие ему проблемы неоднородности данных, неоднородности моделей и катастрофического забывания, а также новую проблему дезалаймента знаний. В данном исследовании мы представляем FedDCL — новую архитектуру, предназначенную для обеспечения обучения без данных (data-free continual learning) модели-сервера в условиях федеративного обучения с неоднородными моделями. Мы используем предобученные диффузионные модели для извлечения легких классовых прототипов, что дает тройное преимущество обучения без данных, позволяя enablin
Полный текст статьи пока не загружен.