← Вернуться к списку

Что может вызвать разницу в потере обучения на одной и той же эпохе "x" при повторном обучении модели?

Краткое содержание

Во время обучения нейронной сети тестовая потеря достигла своего минимума наx-й эпохе. Затем я повторно запустил обучение с максимальным числом эпох, установленным какx. То, что меня удивляет, это то, что тестовая потеря во втором запуске была очень отличной от первого наx-й эпохе, несмотря на то, что все остальные гиперпараметры были одинаковыми. Единственное изменение, которое я внес, — это максимальное число эпох. Что может быть возможным объяснением этого явления? Я использовал стандартный DataLoader из Pytorch для перемешивания обучающих данных. Семя также было тем же самым.

Полный текст статьи пока не загружен.