Исследование параллелизма в FPGA-ускорителях для приложений машинного обучения
Краткое содержание
arXiv:2511.11640v1 Тип объявления: cross Аннотация: Спекулятивное обратное распространение зарекомендовало себя как перспективная методика ускорения обучения нейронных сетей за счёт совмещения прямого и обратного проходов. Использование спекулятивных обновлений весов, когда градиенты ошибки находятся в пределах определённого порога, сокращает время обучения без существенного ущерба для точности. В данной работе мы реализуем спекулятивное обратное распространение на наборе данных MNIST, используя OpenMP в качестве платформы параллельного программирования. Возможности многопоточности OpenMP позволяют одновременно выполнять шаги прямого и спекулятивного обратного распространения, значительно повышая скорость обучения. Приложение планируется к синтезу на современной ПЛИС для демонстрации его потенциала в области аппаратного ускорения. Наши экспериментальные результаты на ЦПУ показывают, что спекулятивное обратное распространение обеспечивает максимальное ускорение выполнения на 24% при использовании порога 0,25, а точность остаётся в пределах 3-4% от базового уровня.
Полный текст статьи пока не загружен.