Как решить задачу линейной регрессии для вогнутой (или выпуклой) зависимости в машинном обучении?
Краткое содержание
Я поражен тем, насколько сложной для меня является задача решения функции f(x) = x^2 с использованием подхода многослойного персептрона с линейной регрессией и PyTorch. Я использую SGD в качестве оптимизатора, MSELoss для функции потерь и настраиваю один скрытый слой с восемью скрытыми узлами. Я использую ReLU как нелинейную функцию активации между слоями. Кроме того, я масштабирую входные данные – произвольно – от -1000 до 1000. Моя логика масштабирования верна; возможно, я допустил ошибку; однако я использовал ту же логику для масштабирования моих входов и выходов для f(x) = 2x, и это работало. Кривая потерь произвольно возрастает и убывает без прогресса; следует ли ожидать, что этот подход должен работать, но потребует большего количества обучения, или я фундаментально неправильно подхожу к решению этой задачи? Спасибо.
Полный текст статьи пока не загружен.