Использование условной вероятности в качестве оценки в функции потерь.
Краткое содержание
У меня довольно большая ML-платформа, которая принимает несколько терминов условной вероятности, вычисляемых с помощью классификаторов/нейронных сетей. Эта произвольная функция потерь вычисляется посредством функции: loss_value = arbitrary_loss(probability1, probability2, ..., P(Y|Z)). Я хочу иметь end-to-end-платформу, которая вычисляет все и обучает все вместе. Поэтому я не хочу, чтобы был независимо обученный классификатор. Допустим, в какой-то момент я разрабатываю некоторые промежуточные значения (эмбеддинги) Z из входных образцов X. Я хочу моделировать условную вероятность P(Y|Z) посредством слоя MLP softmax. Этот термин P(Y|Z) затем оценивается и подставляется в конечную функцию потерь, которая является суммой и произведением других вероятностей. P(Y|Z) = MLP(input_Z) #вероятность при заданном входном Z над метками. Моя проблема заключается в том, что если я просто беру значение слоя softmax для оценки этой вероятности и подставляю его, то ни в какой момент учитываются истинные метки для решения задачи supervised machine learning. Как это исправить без изменения
Полный текст статьи пока не загружен.