Переосмысление функций потерь для диффузионных мостовых семплеров
Краткое содержание
arXiv:2506.10982v3 Тип объявления: замена-перекрёстная Аннотация: Диффузионные мосты представляют собой перспективный класс методов глубокого обучения для выборки из ненормированных распределений. Последние исследования показывают, что потеря логарифмической дисперсии (Log Variance — LV) стабильно превосходит потерю обратного Кульбака-Лейблера (reverse Kullback–Leiber — rKL), когда используется приём репараметризации для вычисления градиентов rKL. Хотя потери LV и rKL дают идентичные градиенты при сочетании с трюком лог-производной для диффузионных семплеров с фиксированными прямыми процессами, эта эквивалентность не сохраняется для диффузионных мостов или случаев, когда коэффициенты диффузии подлежат обучению. Исходя из данного наблюдения мы утверждаем, что для диффузионных мостов потеря LV не представляет оптимизационную цель, которую можно обосновать аналогично потере rKL через неравенство обработки данных. Наш анализ показывает, что использование потери rKL совместно с методом лог-производной (rKL-LD) позволяет избежать указанных концептуальных проблем и стабильно превосходит потерю LV. Экспериментальные результаты подтверждают наше утверждение...
Полный текст статьи пока не загружен.