Справедливость ради людей, от имени людей: коллективное действие меньшинства
Краткое содержание
arXiv:2508.15374v2 Тип объявления: замена Аннотация: Модели машинного обучения часто сохраняют предвзятость, присутствующую в тренировочных данных, что приводит к несправедливому обращению с определёнными группами меньшинств. Несмотря на наличие множества существующих методов смягчения предвзятости со стороны компаний-разработчиков моделей, эти методы обычно связаны с потерей полезности модели и требуют организационного одобрения. Осознавая, что многие модели полагаются на данные, предоставленные пользователями, конечные пользователи могут обеспечить справедливость через механизм Алгоритмического коллективного действия (Algorithmic Collective Action), когда координированная группа меньшинства стратегически переобозначает собственные данные для повышения справедливости, не вмешиваясь в процесс обучения компании. Мы предлагаем три практических метода, независимых от конкретной модели, позволяющих приближённо достичь идеального переобозначения меток и проверяем их эффективность на реальных наборах данных. Наши результаты показывают, что небольшая подгруппа меньшинства способна существенно снизить несправедливость с минимальным влиянием на общую ошибку прогнозирования.
Полный текст статьи пока не загружен.