← Вернуться к списку

FLEX: Важность признаков на основе многоуровневых контрфактивных объяснений

Краткое содержание

arXiv:2511.11891v1 Тип объявления: новый Аннотация: Модели машинного обучения демонстрируют высочайшую производительность в различных областях, однако их недостаточная интерпретируемость ограничивает безопасное развертывание в ответственных сценариях. Контрфактические объяснения широко используются для предоставления действенных рекомендаций по принципу «что, если», но обычно они остаются специфичными для отдельных экземпляров и не позволяют количественно определить, какие признаки систематически обусловливают изменение результатов в когерентных областях пространства признаков или во всем наборе данных. Мы представляем FLEX (Feature importance from Layered counterfactual EXplanations — важность признаков на основе многоуровневых контрфактических объяснений), модель- и предметно-независимый фреймворк, который преобразует наборы контрфактивных примеров в баллы частоты изменения признаков на локальном, региональном и глобальном уровнях. FLEX обобщает локальные меры частоты изменений путем агрегирования по экземплярам и окрестностям, предлагая интерпретируемые ранжирования, которые отражают, как часто каждый признак должен изменяться для инвертирования прогнозов. Фреймворк совместим с различными методами генерации контрфактивных примеров.

Полный текст статьи пока не загружен.