← Вернуться к списку

Единое представление архитектур нейронных сетей

Оценка: 5/10

Краткое содержание

arXiv:2512.17593v1 Announce Type: new Abstract: In this paper we consider the limiting case of neural networks (NNs) architectures when the number of neurons in each hidden layer and the number of hidden layers tend to infinity thus forming a continuum, and we derive approximation errors as a function of the number of neurons and/or hidden layers. Firstly, we consider the case of neural networks with a single hidden layer and we derive an integral infinite width neural representation that generalizes existing continuous neural networks (CNNs) representations. Then we extend this to deep residual CNNs that have a finite number of integral hidden layers and residual connections. Secondly, we revisit the relation between neural ODEs and deep residual NNs and we formalize approximation errors via discretization techniques. Then, we merge these two approaches into a unified homogeneous representation of NNs as a Distributed Parameter neural Network (DiPaNet) and we show that most of the ex В данной статье рассматривается предельный случай архитектур нейронных сетей (НС), когда количество нейронов в каждом скрытом слое и количество скрытых слоев стремятся к бесконечности, образуя континуум, и выводятся ошибки аппроксимации как функция количества нейронов и/или скрытых слоев. Во-первых, мы рассматриваем случай нейронных сетей с одним скрытым слоем и выводим интегральное нейронное представление с бесконечной шириной, которое обобщает существующие представления непрерывных нейронных сетей (CNN). Затем мы расширяем это на глубокие остаточные CNN, которые имеют конечное количество интегральных скрытых слоев и остаточных соединений. Во-вторых, мы пересматриваем связь между нейронными ОДУ и глубокими остаточными НС и формализуем ошибки аппроксимации с помощью методов дискретизации. Затем мы объединяем эти два подхода в единую однородную представимость НС как Распределенной Параметрической Нейронной Сети (DiPaNet) и показываем, что большинство ex

Полный текст статьи пока не загружен.