← Вернуться к списку
Изменение количества эпох изменяет потери на `x`-й эпохе.
Краткое содержание
Во время обучения нейронной сети тестовая потеря достигла минимума на x-й эпохе, после чего я повторил обучение, установив максимальную эпоху равной x. Меня удивляет, что тестовая потеря во втором запуске сильно отличается от первой на эпохе x, хотя все остальные гиперпараметры остались теми же. Единственное изменение, которое я внес, — это максимальная эпоха. Какое возможное объяснение этому явлению? Я использовал стандартный DataLoader из PyTorch для перемешивания обучающих данных. Сид также остался тем же.
Полный текст статьи пока не загружен.