← Вернуться к списку

DEXTER: Объяснения, управляемые диффузией, с текстовым обоснованием для моделей компьютерного зрения

Краткое содержание

arXiv:2510.14741v2 Тип анонса: замена Аннотация: Понимание и объяснение поведения моделей машинного обучения является необходимым условием для построения прозрачных и заслуживающих доверия систем ИИ. Мы представляем DEXTER — фреймворк, работающий без данных, который применяет диффузионные модели и большие языковые модели для генерации глобальных текстовых объяснений визуальных классификаторов. DEXTER работает путем оптимизации текстовых подсказок для синтеза изображений, специфичных для классов, которые сильно активируют целевую модель классификации. Эти синтетические образцы затем используются для получения подробных отчетов на естественном языке, описывающих закономерности принятия решений и смещения, характерные для конкретных классов. В отличие от предыдущих работ, DEXTER позволяет получать объяснения на естественном языке относительно процесса принятия решений классификатором без доступа к обучающим данным или меткам истинных значений. Мы демонстрируем гибкость DEXTER на трех задачах — максимизации активации, обнаружении срезов и устранении смещений, а также объяснении смещений — каждая из которых иллюстрирует способность DEXTER раскрывать внутренние механизмы визуальных классификаторов. Квант

Полный текст статьи пока не загружен.