← Вернуться к списку

Как исправить временную размерность в наборах данных, изменяющихся во времени, используя глубокую нейронную сеть для классификации?

Краткое содержание

Описание набора данных Я работаю с известными наборами данных ABIDE по аутизму. Набор данных очень большой в том смысле, что он содержит более 1000 субъектов, половина из которых являются аутистичными, а другая половина – здоровыми контролями. Набор данных получен из 17 центров по всему миру, и в каждом центре использовалась различная временная шкала при записи fMRI субъектов. Мой вопрос Я хочу использовать этот набор данных для задачи классификации, но единственная проблема заключается в том, что у субъектов меняется время, поэтому наборы признаков фиксированы в 200, так что можно сказать, что у меня есть размеры субъектов, такие как 150 x200, 75 x 200, 300 x 200… и т.д. Какие продвинутые методы ИИ или глубокого обучения я могу использовать для устранения этой временной шкалы для каждого субъекта или может кто-нибудь предложить фреймворк глубокого обучения или модель, которую я мог бы использовать для устранения этих меняющихся временных масштабов между субъектами? Мой подход 1. Я применил PCA к временной шкале и зафиксировал их в 50, а также попробовал другие числа, но это не дало хорошей точности для классификации 2.

Полный текст

Как решить проблему временной размерности в наборах данных, изменяющихся во времени, с помощью модели глубокого обучения для классификации? Задать вопрос

Задано 6 лет, 8 месяцев назад Изменено сегодня Просмотрено 324 раза

Задано 6 лет, 8 месяцев назад

3 $\begingroup$ Описание набора данных Я работаю над знаменитыми наборами данных ABIDE по аутизму. Набор данных очень большой в том смысле, что он содержит более 1000 субъектов, половина из которых являются аутичными, а другая половина – здоровыми контролями. Набор данных получен из 17 мест по всему миру, и каждое место использовало изменяющуюся во времени временную размерность при записи fMRI субъектов. Мой вопрос Я хочу использовать этот набор данных для задачи классификации, но единственная проблема заключается в том, что субъекты с изменяющейся во времени являются наборами признаков, фиксированными в 200, так что можно сказать, что у меня есть размеры субъектов, такие как 150 x200, 75 x 200, 300 x 200… и т.д. Так что какие продвинутые методы ИИ или глубокого обучения я могу использовать для решения этой временной размерности для каждого субъекта или может кто-нибудь предложить фреймворк глубокого обучения или модель, которую я мог бы использовать для решения этих изменяющихся во времени размеров по субъектам? Мой подход к решению проблемы Подход 1 Я применял PCA к временной размерности и фиксировал их в 50 и пытался другие числа тоже, но это не дало хорошей точности для классификации Подход 2 Я также пытался использовать только определенные моменты времени от каждого субъекта, например, брать только 40 моментов времени от каждого субъекта для фиксации размера, но снова это не сработало, поскольку фильтрация временных рядов данных на каждом субъекте неизбежно приведет к потере важной информации. deep-learning datasets time-series Поделиться Улучшить этот вопрос Следить за изменениями 39 мин назад Mr. AI Cool 1 217 1 1 серебряная отметка 20 20 бронзовые значки задано 15 мая 2019 г. в 3:11 Edison 81 3 3 бронзовые значки $\endgroup$ Добавить комментарий | 2 Ответа 2 Отсортировано по: Сбросить по умолчанию Наивысший балл (по умолчанию) Измененная дата (от новых к старым) Созданная дата (от старых к новым) 0 $\begingroup$ В глубоком обучении часто используется рекуррентная нейронная сеть (RNN), чтобы обрабатывать временные ряды данных с изменяющимися входными последовательностями. Пожалуйста, ознакомьтесь со статьей о RNN в Википедии для получения более подробной информации. Поделиться Улучшить этот ответ Следить за изменениями отвечено 20 мая 2019 г. в 1:47 David Rein 93 6 6 бронзовые значки $\endgroup$ 3 $\begingroup$ Я знаю RNN и существуют многие другие техники, которые можно использовать, но не могли бы вы привести конкретные ссылки или ссылки на то, как этот тип данных, как я спросил в своем вопросе, с изменяющейся во времени размерностью, впервые был решен с помощью RNN и использовался для классификации? $\endgroup$ Edison – Edison 2019-05-20 03:27:32 +00:00 Комментировано 20 мая 2019 г. в 3:27 $\begingroup$ Не могли бы вы быть более конкретны относительно того, что вы ищете? Вы ищете код, который можно использовать, руководство по использованию RNN, хороший ML-фреймворк/инструмент для использования и т.д.? $\endgroup$ David Rein – David Rein 2019-05-20 22:00:22 +00:00 Комментировано 20 мая 2019 г. в 22:00 $\begingroup$ Нет, это не так, я не ищу код. Я просто хочу знать, есть ли у кого-нибудь хорошая архитектура или модель с использованием глубокого обучения или машинного обучения, которую я мог бы самостоятельно развернуть. $\endgroup$ Edison – Edison 2019-05-21 02:57:05 +00:00 Комментировано 21 мая 2019 г. в 2:57 Добавить комментарий | 0 $\begingroup$ Один из способов решить эту проблему — определить самую длинную последовательность в наборе обучающих данных, а затем расширить (0 заполнение) все остальные входные данные до этого размера. Поделиться Улучшить этот ответ Следить за изменениями отвечено 20 мая 2019 г. в 12:48 razvanc92 1 168 1 1 золотая отметка 9 9 серебряных отметок 18 18 бронзовых отметок $\endgroup$ 2 $\begingroup$ Я делал подобные вещи, но не получал хорошей точности. То есть я ищу какую-нибудь модель машинного/глубокого обучения или какой-нибудь сигналный процесс, который мог бы сжать информацию от всех субъектов в фиксированную размерность. Поскольку у меня данные fMRI мозга, а нулевое задание моментов времени не имеет смысла, поскольку на каждом моменте времени должно быть какое-то значение. $\endgroup$ Edison – Edison 2019-05-20 12:52:03 +00:00 Комментировано 20 мая 2019 г. в 12:52 $\begingroup$ Возможно, модели, с которыми вы экспериментируете, не подходят для вашего типа проблемы. Если вы хотите закодировать входные данные