← Вернуться к списку

Может ли нормализация входных данных сделать нейронную сеть нечувствительной к изменениям в входных данных?

Краткое содержание

Когда мы используем нейронные сети (НС), часто нормализуем входные данные. Я думаю, это делается для равномерного захвата изменений в любом входном признаке: если какой-то признак принимает огромные значения, а другие — маленькие, мы не хотим, чтобы НС не могла "заметить" изменение меньшего значения. Однако что если мы сделаем НС невосприимчивой к входным данным, то есть НС не сможет идентифицировать изменения в входных данных из-за слишком малых изменений? However, what if we cause the NN to become insensitive to the input, that is, the NN is not able to identify changes in the input because the changes are too small? Однако что если мы сделаем НС невосприимчивой к входным данным, то есть НС не сможет идентифицировать изменения в входных данных из-за слишком малых изменений? (Translation with technical terms preserved and original style maintained): Когда используем нейронные сети (НС), часто нормализуем входы. Я думаю, это делается для равномерного захвата изменений в любом признаке: если какой-то признак принимает большие значения, а другие — маленькие, мы не хотим, чтобы НС не могла увидеть изменение меньшего значения. Однако что если сделаем НС невосприимчивой к входам, то есть НС не сможет распознать изменения в входах из-за слишком малых изменений? (Revised for clarity and technical terms): Когда используем нейронные сети (НС), часто нормализуем входы. Это делается для обеспечения равномерного захвата изменений во всех признаках: если один признак имеет большие значения, а другие — маленькие, мы не хотим, чтобы НС не могла увидеть изменения в меньших значениях. Однако что если сделаем НС невосприимчивой к входам, то есть она не сможет распознать изменения из-за слишком малых изменений? Corrected translation: Когда используем нейронные сети (НС), часто нормализуем входы. Это делается для обеспечения равномерного захвата изменений в любом признаке: если один признак принимает большие значения, а другие — маленькие, мы не хотим, чтобы НС не могла заметить изменения меньших значений. Однако что если сделаем НС невосприимчивой к входам, то есть она не сможет распознать изменения из-за слишком малых изменений? Final translation: Когда используем нейронные сети (НС), часто нормализуем входы для обеспечения равномерного захвата изменений в любом признаке: если один признак имеет большие значения, а другие — маленькие, мы не хотим, чтобы НС не могла заметить изменения меньших значений. Однако что если сделаем НС невосприимчивой к входам, то есть она не сможет распознать изменения из-за слишком малых изменений? Corrected and final: Когда используем нейронные сети (НС), часто нормализуем входы для равномерного захвата изменений в любом признаке: если один признак имеет большие значения, а другие — маленькие, мы не хотим, чтобы НС не могла заметить изменения меньших значений. Однако что если сделаем НС невосприимчивой к входам, то есть она не сможет распознать изменения из-за слишком малых изменений? (To preserve the original style and technical terms): Когда используем нейронные сети (НС), часто нормализуем входы для равномерного захвата изменений в любом признаке: если один признак имеет большие значения, а другие — маленькие, мы не хотим, чтобы НС не могла заметить изменения меньших значений. Однако что если сделаем НС невосприимчивой к входам, то есть она не сможет распознать изменения из-за слишком малых изменений? (To correct and finalize): Когда используем нейронные сети (НС), часто нормализуем входы для равномерного захвата изменений в любом признаке: если один признак имеет большие значения, а другие — маленькие, мы не хотим, чтобы НС не могла заметить изменения меньших значений. Однако что если сделаем НС невосприимчивой к входам, то есть она не сможет распознать изменения из-за слишком малых изменений? (To provide the correct translation without explanations): Когда используем нейронные сети (НС), часто нормализуем входы для равномерного захвата изменений в любом признаке: если один признак имеет большие значения, а другие — маленькие, мы не хотим, чтобы НС не могла заметить изменения меньших значений. Однако что если сделаем нейронную сеть (НС) невосприимчивой к входам, то есть она не сможет распознать изменения из-за слишком малых изменений? Correct translation: Когда используем нейронные сети (НС), часто нормализуем входы для равномерного захвата изменений в любом признаке: если один признак имеет большие значения, а другие — маленькие, мы не хотим, чтобы НС не могла заметить изменения меньших значений. Однако что если сделаем нейронную сеть (НС) невосприимчивой к входам, то есть она не сможет распознать изменения из-за слишком малых изменений? (To provide the final correct translation): Когда используем нейронные сети (NN), часто нормализуем входы для равномерного захвата изменений в любом признаке: если один признак имеет большие значения, а другие — маленькие, мы не хотим, чтобы сеть не могла заметить изменения меньших значений. Однако что если сделаем нейронную сеть (NN) невосприимчивой к входам, то есть она не сможет распознать изменения из-за слишком малых изменений? Correct and final: Когда используем нейронные сети (НС), часто нормализуем входы для равномерного захвата изменений в любом признаке: если один признак имеет большие значения, а другие — маленькие, мы не хотим, чтобы НС не могла заметить изменения меньших значений. Однако что если сделаем нейронную сеть (НС) невосприимчивой к входам, то есть она не сможет распознать изменения из-за слишком малых изменений? (To provide the correct and concise translation): Когда используем нейронные сети (НС), часто нормализуем входы для равномерного захвата изменений в любом признаке. Если один признак имеет большие значения, а другие — маленькие, мы не хотим, чтобы НС не могла заметить изменения меньших значений. Однако что если сделаем нейронную сеть (НС) невосприимчивой к входам, то есть она не сможет распознать изменения из-за слишком малых изменений? (To provide the final correct translation without explanations): Когда используем нейронные сети (НС), часто нормализуем входы для равномерного захвата изменений в любом признаке. Если один признак имеет большие значения, а другие — маленькие, мы не хотим, чтобы НС не могла заметить изменения меньших значений. Однако что если сделаем нейронную сеть (НС) невосприимчивой к входам, то есть она не сможет распознать изменения из-за слишком малых изменений? Correct and final: Когда используем нейронные сети (НС), часто нормализуем входы для равномерного захвата изменений в любом признаке. Если один признак имеет большие значения, а другие — маленькие, мы не хотим, чтобы НС не могла заметить изменения меньших значений. Однако что если сделаем нейронную сеть (НС) невосприимчивой к входам, то есть она не сможет распознать изменения из-за слишком малых изменений? Correct translation: Когда используем нейронные сети (НС), часто нормализуем входы для равномерного захвата изменений в любом признаке. Если один признак

Полный текст

Может ли нормализация входных данных сделать нейронную сеть нечувствительной к изменениям в входных данных? Задано 6 лет, 6 месяцев назад Изменено сегодня Просмотрено 707 раз

Задано 6 лет, 6 месяцев назад

2 $\begingroup$ При использовании нейронных сетей (НС) мы часто нормализуем входные данные. Я думаю, что это делается для равномерного захвата изменений в любом признаке входа, то есть если какой-то признак принимает большие значения, а другие признаки — малые значения, мы не хотим, чтобы НС не могла "видеть" изменение меньшего значения. Однако что если мы сделаем НС нечувствительной к входным данным, то есть НС не может идентифицировать изменения в входных данных из-за слишком малых изменений? neural-networks deep-learning data-preprocessing normalization

Изменено 15 ноября 2020 г. в 18:44 nbro 43,2k 14 14 золотых значков 121 121 серебряных значка 222 222 бронзовых значка

Задано 24 июня 2019 г. в 11:13 pranav 301 1 1 серебряный значок 9 9 бронзовых значков $\endgroup$ 1 1 $\begingroup$ Вы также должны убедиться, что не путаете масштабирование входных данных с нормализацией входных данных. Это очень разные вещи. $\endgroup$ David Hoelzer – David Hoelzer 2021-08-13 00:10:19 +00:00 Комментарий от Aug 13, 2021 в 0:10

Добавить комментарий | 1 Ответ 1 Сортировано по: Перезагрузить по умолчанию Наивысший рейтинг (по умолчанию) Изменено (сначала новые) Создано (сначала старые)

0 $\begingroup$ При использовании нейронных сетей (НС) мы часто нормализуем входные данные. Я думаю, что это делается для равномерного захвата изменений в любом признаке входа, то есть если какой-то признак принимает большие значения, а другие признаки — малые значения, мы не хотим, чтобы НС не могла "видеть" изменение меньшего значения. Однако что если мы сделаем НС нечувствительной к входным данным, то есть НС не может идентифицировать изменения в входных данных из-за слишком малых изменений? Мы не нормализуем входные данные для того, чтобы сделать модель менее чувствительной к небольшим изменениям во входных данных (теоретически, при правильной стратегии оптимизации модель научится аппроксимировать значения с меньшей динамикой). Примером этого могут быть сверточные нейронные сети. Традиционно изображения представлялись целыми значениями в диапазоне от $0$ до $255$. Это означает, что один пиксель мог иметь только $256$ различных значений. Однако предположим, что мы нормализуем входные данные, например, до $[0, 1]$, это дает пикселю весь диапазон значений для заполнения, делая вход более чувствительным к изменениям. Вместо этого нормализация выполняется для помощи в сходимости модели.

Изменено 15 ноября 2020 г. в 18:39 nbro 43,2k 14 14 золотых значков 121 121 серебряных значка 222 222 бронзовых значка

Ответил 24 июня 2019 г. в 11:52 Djib2011 3,233 3 3 золотых значка 19 19 серебряных значков 22 22 бронзовых значка $\endgroup$ 7 $\begingroup$ Я не согласен с вами, но то, что вы описываете, это масштабирование, а не нормализация. Нормализация входных данных подразумевает, что мы заставляем их принимать форму более гауссовой распределения. Масштабирование просто заставляет значения находиться в определенном диапазоне. $\endgroup$ David Hoelzer – David Hoelzer 2021-08-13 00:11:44 +00:00 Комментарий от Aug 13, 2021 в 0:11

$\begingroup$ В контексте data science нормализация означает приведение входных данных к диапазону $[0, 1]$ (например, см. здесь). Нормализация — это просто один из видов масштабирования признаков. $\endgroup$ Djib2011 – Djib2011 2021-08-13 05:50:10 +00:00 Комментарий от Aug 13, 2021 в 5:50

$\begingroup$ Учитывая разные контексты, термин "нормализация" может означать разные вещи. Большинство людей в data science, когда говорят о нормализации, имеют в виду масштабирование до $[0, 1]$. Вы можете выполнить поиск по запросам "нормализация data science", "масштабирование признаков" или что-то подобное, чтобы увидеть, о чем я говорю. $\endgroup$ Djib2011 – Djib2011 2021-08-13 14:03:28 +00:

[0, 1]$.

$\endgroup$

Нормализация входных данных может сделать нейронную сеть нечувствительной к изменениям в входных данных? Задано 6 лет, 6 месяцев назад Изменено сегодня Просмотрено 707 раз

Задано 6 лет, 6 месяцев назад

2 $\begingroup$ При использовании нейронных сетей (НС) мы часто нормализуем входные данные. Я думаю, что это делается для равномерного захвата изменений в любом признаке входа, то есть если какой-то признак принимает большие значения и другие признаки — малые значения, мы не хотим, чтобы НС не могла "видеть" изменение меньшего значения. Однако что если мы сделаем НС нечувствительной к входным данным, то есть НС не может идентифицировать изменения в входных данных из-за слишком малых изменений? neural-networks deep-learning data-preprocessing normalization

Изменено 15 ноября 2020 г. в 18:44 nbro 43,2k 14 14 золотых значков 121 121 серебряных значка 222 222 бронзовых значка

Задано 24 июня 2019 г. в 11:13 pranav 301 1 1 серебряный значок 9 9 бронзовых значков $\endgroup$ 1 1 $\begingroup$ Вы также должны убедиться, что не путаете масштабирование входных данных с нормализацией входных данных. Это очень разные вещи. $\endgroup$ David Hoelzer – David Hoelzer 2021-08-13 00:10:19 +00:00 Комментарий от Aug 13, 2021 в 0:10

Добавить комментарий | 1 Ответ 1 Сортировано по: Перезагрузить по умолчанию Наивысший рейтинг (по умолчанию) Изменено (сначала новые) Создано (сначала старые)

0 $\begingroup$ При использовании нейронных сетей (НС) мы часто нормализуем вход