Пакетные матричные уравнения и реализация многослойных перцептронов
Краткое содержание
arXiv:2511.11918v1 Тип: новый Аннотация: Многослойные перцептроны (MLP) остаются фундаментальной основой современного глубокого обучения, однако их алгоритмические детали редко представляются в полной, явной _матричной форме для батча_. Вместо этого большинство источников выражают градиенты для отдельного примера или полагаются на автоматическое дифференцирование. Хотя автоматическое дифференцирование позволяет достичь столь же высокой вычислительной эффективности, использование матричной формы для батча делает вычислительную структуру явной, что крайне важно для прозрачного, систематического анализа и оптимизации в таких сценариях, как разреженные нейронные сети. Данная статья заполняет этот пробел, предоставляя математически строгую и готовую к реализации спецификацию MLP в матричной форме для батча. Мы выводим прямые и обратные уравнения для всех стандартных и продвинутых слоев, включая пакетную нормализацию и softmax, и проверяем все уравнения с использованием библиотеки символьной математики SymPy. На основе этих спецификаций мы создаем единообразные эталонные реализации в Nu
Полный текст статьи пока не загружен.