Обучение инвариантным по временному масштабу популяционным нейронным представлениям
Краткое содержание
arXiv:2511.13022v1 Тип объявления: новый Аннотация: Универсальные базовые модели для нейронных временных рядов могут способствовать ускорению нейробиологических открытий и обеспечить работу таких приложений, как интерфейсы «мозг-компьютер» (ИМК). Ключевым компонентом масштабирования этих моделей является обучение репрезентаций на популяционном уровне, которое использует информацию со всех каналов для учета как пространственной, так и временной структуры. Недавние работы на популяционном уровне показали, что такие репрезентации можно как эффективно дообучать поверх предварительно обученных временных энкодеров, так и получать из них полезные представления для декодирования широкого спектра последующих задач. Однако эти модели остаются чувствительными к несоответствиям в предварительной обработке, особенно в отношении временных масштабов, между этапами предварительного обучения и последующего применения. Мы систематически исследуем, как несоответствие временных масштабов влияет на обобщающую способность, и обнаруживаем, что существующие репрезентации не обладают инвариантностью. Для решения этой проблемы мы представляем метод предварительного обучения с аугментацией временного масштаба (Time-scale Augmented Pretraining, TSAP), который последовательно повышает робаст
Полный текст статьи пока не загружен.