К универсальным нейронным операторам через многопрофильную предобработку
Краткое содержание
arXiv:2511.10829v1 Тип объявления: новый Аннотация: Несмотря на широкое применение нейронных операторов в физических симуляциях, основанных на данных, обучение моделей остаётся вычислительно затратной задачей. Современные достижения решают эту проблему путём дообучения (downstream learning), когда предварительно натренированная на простых задачах модель дополнительно настраивается на более сложные проблемы. В данном исследовании мы изучаем трансформерные нейронные операторы, ранее применявшиеся лишь к конкретным задачам, в более общей постановке переноса знаний через трансферное обучение. Мы оцениваем их производительность на различных проблемах дифференциальных уравнений в частных производных (ПуЧД), включая экстраполяцию на невидимые параметры, включение новых переменных и перенос между наборами данных с несколькими уравнениями. Наши результаты показывают, что продвинутые архитектуры нейронных операторов способны эффективно передавать знания между различными проблемами ПуЧД.
Полный текст статьи пока не загружен.