Оценка многоцелевых и одноцелевых алгоритмов обучения для несбалансированных данных
Краткое содержание
arXiv:2511.12191v1 Тип объявления: новый Аннотация: Многие задачи машинного обучения направлены на поиск моделей, которые работают хорошо не для одного, а для группы критериев, часто противоположных. Одним из таких примеров является классификация несбалансированных данных, где, с одной стороны, мы хотим достичь наилучшего возможного качества классификации для данных из миноритарного класса без ухудшения качества классификации мажоритарного класса. Одно из решений — предложить агрегированный критерий обучения и свести многокритериальную задачу обучения к задаче оптимизации с одним критерием. К сожалению, такой подход характеризуется неоднозначностью интерпретации, поскольку значение агрегированного критерия не указывает на значение составляющих его критериев. Следовательно, появляется всё больше предложений по алгоритмам, основанным на многокритериальной оптимизации (МКО), которые могут одновременно оптимизировать несколько критериев. Однако такой подход приводит к множеству недоминируемых решений (паретовский фронт). Выбор
Полный текст статьи пока не загружен.