← Вернуться к списку
Что может вызвать разницу в значении потерь при обучении на той же эпохе «x» при повторном обучении модели?
Краткое содержание
Во время обучения нейронной сети тестовая ошибка достигла минимума на x-й эпохе. Затем я повторил обучение, установив максимальную эпоху равной x. Для меня удивительно, что тестовая ошибка во втором запуске на x-й эпохе сильно отличалась от первой, хотя все остальные гиперпараметры были одинаковыми. Единственное изменение, которое я внес, — это максимальная эпоха. Какое возможное объяснение этому явлению? Я использовал стандартный DataLoader из Pytorch для перемешивания обучающих данных. Зерно также одинаковое.
Полный текст статьи пока не загружен.