Как я могу адаптировать обученную нейронную сеть для обучения на новых данных, содержащих дополнительные признаки?
Краткое содержание
Мы предположим, что у нас есть обученная нейронная сеть для задачи $A$. Набор данных, использованный для обучения модели, содержал $n$ признаков на образец. Используя этот набор данных, мы смогли обучить классификатор. После некоторого времени я получаю больше данных для той же задачи $A$, но с дополнительными признаками (всеми релевантными). Я хочу использовать эти новые данные для улучшения моего существующего классификатора, используя веса (чему она научилась из первоначального набора данных). Это кажется очень похожим на проблему переноса обучения, но моя цель — использовать существующую архитектуру модели без значительного ее изменения и сделать ее лучшим классификатором для той же задачи $A$, не прибегая к переобучению. (Мы можем предположить, что данные теряются после обучения, и у нас есть только параметры/веса нашей модели). После некоторого изучения это может быть сценарий непрерывного обучения, но большая часть работ связана с обучением существующей модели для разных задач. Я не могу полностью понять, как я мог бы использовать то же
Полный текст статьи пока не загружен.