Объяснение байесовских нейронных сетей
Краткое содержание
arXiv:2108.10346v2 Тип объявления: замена Аннотация: Для повышения прозрачности машин обучения, таких как глубокие нейронные сети (DNN), была создана область интерпретируемого ИИ (XAI), предназначенная для объяснения прогнозов DNN. Несмотря на существование различных методов интерпретаций, популярным подходом являются карты атрибуции, иллюстрирующие для конкретного экземпляра данных релевантные паттерны, использованные моделью для формирования своего прогноза. Хотя байесовские модели, такие как Байесовские нейронные сети (BNN), обладают ограниченной формой встроенной прозрачности через распределение весовых коэффициентов априорной вероятности, они лишены объяснений своих предсказаний для конкретных экземпляров данных. В данной работе мы делаем шаг навстречу объединению этих двух подходов путём изучения того, каким образом локальные атрибуции могут быть распространены на BNN. В рамках байесовского подхода веса сети подчиняются распределению вероятностей, следовательно, стандартное точечное объяснение естественным образом расширяется до распределения объяснений. Рассматривая объяснения как случайные величины, мы можем получить статистические характеристики, такие как среднее значение и дисперсия, позволяющие глубже понять природу неопределённости, присущей конкретному прогнозу.
Полный текст статьи пока не загружен.