← Вернуться к списку

Всегда ли остаточное отображение приносит пользу?

Краткое содержание

Читая статью об остаточном обучении [1], я столкнулся с проблемой, которая, как мне кажется, осталась без ответа. Предположим, я наращиваю глубокую нейронную сеть для отображения входа в выход. Допустим, функция H(x) выполняет требуемое отображение. Функция F(x) представляет собой остаток, который должны выучить слои, пропускающие вход (x), и который вводится/добавляется перед выходом. Рассмотрим случай, когда мой H(x) отображает любую заданную переменную входа x в 0, т.е. H(x) = 0 ∀x∈R. Теперь для этого случая F(x) = H(x) - x, т.е. F(x) = -x ∀x∈R. Мой вопрос: разве выучить F(x) = -x не будет сложнее для нейронных сетей по сравнению с простым отображением H(x) = 0? Пожалуйста, объясните.

Полный текст статьи пока не загружен.