← Вернуться к списку

Используя определение APAC обучения и равномерную сходимость на практике.

Краткое содержание

Я в настоящее время изучаю "Понимание машинного обучения от теории к практике" Шайа Шалев-Шварца и Шая Бен-Давида. Я хочу понять, как я могу использовать Определения и Результаты, которые он описывает в теории, на практике. Рассмотрим задачу подгонки одномерного полинома к данным; а именно, наша цель — научиться функции $h : \mathbb{R} \rightarrow \mathbb{R}$, и мы рассматриваем как предыдущие знания гипотетическую классы полиномов до степени 10. Наш класс $H$ имеет VCdim($H$) = 11, поэтому согласно фундаментальному теореме статистического обучения он является APAC-обучаемым с ERM. Если я фиксирую мои $\epsilon,\delta \in (0,1)$, то если размер моего выборки равен $C_2\frac{11+\log(1/\delta)}{\epsilon^2}$, я могу быть уверен, что с вероятностью не менее $1-\delta$, ERM выдаст гипотезу с\begin{equation} L_D(h_s)\leq \min_{h}L_D(h)+\epsilon. \end{equation}$C_2$ — это константа, а $h_S$ — гипотеза алгоритма ERM. Теперь в практических терминах это не говорит мне ничего о качестве моей модели. Потому что мы

Полный текст статьи пока не загружен.