Как исправить временную размерность в наборах данных, изменяющихся во времени, с помощью модели глубокого обучения для классификации?
Краткое содержание
Описание набора данных Я работаю с известными наборами данных ABIDE по аутизму. Набор данных очень большой в том смысле, что он содержит более 1000 субъектов, половина из которых являются аутичными, а другая половина – здоровыми контролями. Набор данных получен из 17 центров по всему миру, и в каждом центре использовалась различная временная шкала при записи fMRI субъектов. Мой вопрос Я хочу использовать этот набор данных для задачи классификации, но единственная проблема заключается в том, что у субъектов меняется время, поэтому наборы признаков фиксированы в 200, так что можно сказать, что я имею размеры субъектов, такие как 150 x200, 75 x 200, 300 x 200… и т.д. Итак, какие продвинутые методы ИИ или глубокого обучения я могу использовать для устранения этой временной шкалы для каждого субъекта или может кто-нибудь предложить фреймворк глубокого обучения или модель, которую я мог бы использовать для устранения этих меняющихся временных масштабов между субъектами? Мой подход Я применил PCA к временной шкале и установил их в 50 и также попробовал другие числа, но это не дало хорошей точности для классификации Подход 2
Полный текст
Задано 6 лет, 8 месяцев назад Изменено сегодня Просмотрено 323 раза
Задано 6 лет, 8 месяцев назад
3 $\begingroup$ Описание набора данных Я работаю с известными наборами данных ABIDE по аутизму. Набор данных очень большой в том смысле, что он содержит более 1000 субъектов, половина из которых являются аутотичными, а другая половина – здоровыми контрольными группами. Набор данных получен из 17 сайтов по всему миру, и каждый сайт использовал изменяющуюся во времени временную размерность при записи фМРТ субъектов. Мой вопрос Я хочу использовать этот набор данных для задачи классификации, но единственная проблема заключается в изменяющихся во времени субъектах как в наборе признаков фиксируется 200, так что можно сказать, что у меня размеры субъектов такие как 150 x200, 75 x 200, 300 x 200... и т.д. Так что какие продвинутые методы ИИ или глубокого обучения я могу использовать для исправления этой временной размерности для каждого субъекта или может кто-нибудь предложить фреймворк глубокого обучения или модель, которую я мог бы использовать для решения этих изменяющихся во времени временных размеров между субъектами? Мой подход к решению проблемы 1 Я применял PCA к временной размерности и фиксировал их в 50 и пытался другие числа тоже, но это не дало хорошей точности для классификации Подход 2 Я также пытался использовать только определенные моменты времени из каждого субъекта, например, брать только 40 моментов времени из каждого субъекта для фиксации размера, но опять же это не сработало, поскольку фильтрация временных рядов данных на каждом субъекте неизбежно приводила к потере важной информации. deep-learning datasets time-series Поделиться Улучшить вопрос Следить за редактированием 31 декабря 2021 г., 10:35 nbro 43,2k 14 14 золотые значки 121 121 серебряные значки 222 222 бронзовые значки задано 15 мая 2019 г., 3:11 Edison 81 3 3 бронзовые значки $\endgroup$ Добавить комментарий | 2 Ответа 2 Отсортировано по: Сбросить по умолчанию Наивысший балл (по умолчанию) Измененная дата (новые первыми) Созданная дата (старые первыми) 0 $\begingroup$ В глубоком обучении часто используется рекуррентная нейронная сеть (RNN), чтобы обрабатывать временные ряды данных с изменяющимися входными последовательностями. Посмотрите Википедию по RNN для получения более подробной информации. Поделиться Улучшить ответ Следить за ответом Отвечено 20 мая 2019 г., 1:47 David Rein 93 6 6 бронзовые значки $\endgroup$ 3 $\begingroup$ Я знаю RNN и существуют многие другие техники, которые можно использовать, но можете ли вы привести конкретную ссылку или ресурс, где этот тип данных, как я спросил в своем вопросе с изменяющейся во времени размерностью, впервые исправлялся с помощью RNN и использовался для классификации? $\endgroup$ Edison – Edison 2019-05-20 03:27:32 +00:00 Комментировано 20 мая 2019 г., 3:27 $\begingroup$ Не могли бы вы быть более конкретными в отношении того, что вы ищете? Вы ищете код, который можно использовать, учебник по использованию RNN, хороший инструмент машинного обучения/инструмент для использования и т.д.? $\endgroup$ David Rein – David Rein 2019-05-20 22:00:22 +00:00 Комментировано 20 мая 2019 г., 22:00 $\begingroup$ Нет, это не совсем. Я не ищу код. Я просто хочу знать, есть ли у кого-нибудь архитектура или модель с использованием глубокого обучения или машинного обучения, которую я мог бы самостоятельно развернуть. $\endgroup$ Edison – Edison 2019-05-21 02:57:05 +00:00 Комментировано 21 мая 2019 г., 2:57 Добавить комментарий | 0 $\begingroup$ Один из способов решить эту проблему — определить самую длинную последовательность в наборе обучающих данных, а затем расширить (0 заполнение) все остальные входные данные до этого размера. Поделиться Улучшить ответ Следить за ответом Отвечено 20 мая 2019 г., 12:48 razvanc92 1,168 1 1 золотой значок 9 9 серебряный знак 18 18 бронзовый знак задано 20 мая 2019 г., 12:52:03 +00:00 $\begingroup$ Я делал подобные вещи, но не получал хорошей точности. То есть я ищу какую-то модель машинного/глубокого обучения или какой-либо сигнал обработки, которая могла бы сжать информацию от всех субъектов в фиксированную размерность. Поскольку у меня данные fMRI мозга и нулевая установка некоторых моментов времени не имеет смысла, поскольку в каждом моменте времени должно быть какое-то значение. $\endgroup$ Edison – Edison 2019-05-20 12:52:03 +00:00 Комментировано 20 мая 2019 г., 12:52 $\begingroup$ Возможно, модели, с которыми вы экспериментируете, не приспособлены для вашего типа проблемы. Если вам нужно