Обучение малошаговых постериорных семплеров путем разворачивания и дистилляции диффузионных моделей
Краткое содержание
arXiv:2507.02686v2 Тип объявления: замена-перекрёстная публикация Аннотация: Модели диффузии (DM) зарекомендовали себя как мощные априорные модели изображений в байесовском вычислительном изображении. В этом контексте были предложены два основных подхода к использованию моделей диффузии: методы "plug-and-play", которые являются универсальными и гибкими без предварительного обучения, но полагаются на приближения; а также специализированные условные модели диффузии, которые обеспечивают более высокую точность и ускоряют вывод для конкретных задач за счёт контролируемого обучения. В данной работе мы представляем новый подход, объединяющий глубокое разворачивание и дистилляцию моделей с целью преобразования априорной модели изображения на основе диффузионной модели в модель условного типа с небольшим числом шагов для выборки из апостериорного распределения. Центральным нововведением нашего метода является развертывание алгоритма Монте-Карло по цепям Маркова (MCMC), а именно недавно предложенного латинского Ланжевеновского семплера LATINO (Spagnoletti et al., 2025), что представляет собой первый известный случай применения глубокого разворачивания к схеме выборки методом Монте-Карло. Мы демонстрируем наши предлагаемые размотанные и дистиллированные семплеры посредством...
Полный текст статьи пока не загружен.