О справедливости защиты приватности: Измерение и снижение неравенства групповых рисков приватности в машинном обучении с дифференциальной приватностью
Краткое содержание
arXiv:2510.09114v3 Тип объявления: replace Аннотация: Несмотря на значительный прогресс в области машинного обучения с учетом справедливости (ML) и машинного обучения с дифференциальной приватностью (DPML), вопрос справедливости защиты конфиденциальности для различных групп остается малоизученным. Существующие исследования предложили методы оценки рисков конфиденциальности на уровне групп, однако они основаны на усредненных рисках приватности записей данных. Такой подход может приводить к недооценке рисков конфиденциальности групп и, как следствие, к недооценке дисбаланса между этими рисками. Более того, текущий метод оценки рисков приватности записей данных для наихудшего случая требует значительных временных затрат, что ограничивает его практическую применимость. Для преодоления этих ограничений мы представляем новую игру с выводом членства, которая позволяет эффективно аудитировать приблизительные риски приватности записей данных для наихудшего случая. Результаты экспериментов демонстрируют, что наш метод обеспечивает более строгую оценку рисков конфиденциальности групп, давая надежную оценку дисбаланса.
Полный текст статьи пока не загружен.