← Вернуться к списку

Каков обычно используемый порог для определения сходимости значений потерь в глубоком обучении?

Краткое содержание

В глубоком обучении один из способов определить, сошлась ли тренировка, — наблюдать за изменением значений функции потерь в течение итераций или эпох. Можно выбрать любой порог $\epsilon$ и любую метрику. Если значение меньше $\epsilon$, то тренировка сошлась. Мой вопрос: какого размера значение $\epsilon$ обычно используется? Есть ли примеры статей, в которых конкретно указан этот порог?

Полный текст статьи пока не загружен.