← Вернуться к списку
Что может вызвать разницу в потере обучения на одной и той же эпохе "x" при повторном обучении модели?
Краткое содержание
Во время обучения нейронной сети тестовая потеря достигла своего минимума наx-й эпохе. Затем я повторно запустил обучение с максимальным числом эпох, установленным какx. То, что меня удивляет, это то, что тестовая потеря во втором запуске была очень отличной от первого наx-й эпохе, несмотря на то, что все остальные гиперпараметры были одинаковыми. Единственное изменение, которое я внес, — это максимальное число эпох. Что может быть возможным объяснением этого явления? Я использовал стандартный DataLoader из Pytorch для перемешивания обучающих данных. Семя также было тем же самым.
Полный текст статьи пока не загружен.