RSS на пути к науке о данных - Medium

Меньше – это больше? Нужно ли сокращать функции моделей прогнозирования на основе глубокого обучения?

Прогнозирование временных рядов - это мощный инструмент в области данных, который дает представление о будущих тенденциях на основе исторических закономерностей. Однако работа с большим количеством признаков в данных временных рядов может быть сложной задачей. Сокращение количества признаков является важным шагом в совершенствовании моделей прогнозирования, поскольку оно упрощает набор признаков и сохраняет прогностическую силу. Этот процесс аналогичен очистке рабочего пространства, чтобы сделать его проще найти то, что нужно. Сокращение количества признаков может уменьшить сложность, улучшить обобщение, сделать модель проще для интерпретации и повысить вычислительную эффективность. Большинство пакетов Python для прогнозирования временных рядов не выполняют сокращение количества признаков автоматически, поэтому это шаг, который обычно необходимо выполнять самостоятельно перед использованием этих пакетов. Практический пример с использованием реальных ежедневных данных из базы данных Федерального резервного банка США (FRED) демонстрирует важность сокращения количества признаков. После того, как данные были сделаны стационарными, подсчитывается количество переменных, которые имеют коэффициент корреляции не менее 95% с другой переменной. В этом случае 260 из 438 переменных имеют корреляцию 95% или более с другой переменной, что указывает на значительную мультиколлинеарность в наборе данных. Чтобы решить эту проблему, можно использовать методы оценки и отбора признаков. Принципальная компонентная анализ (PCA) - это распространенный и эффективный метод сокращения размерности, который выявляет линейные отношения между признаками и сохраняет основные компоненты, которые объясняют заданный процент дисперсии в исходном наборе данных. В этом примере PCA сокращает количество признаков с 438 до 76, сохраняя 90% объясненной дисперсии. Другие методы, такие как модель Temporal Fusion Transformers (TFT), также можно использовать для сокращения количества признаков. Модель TFT включает в себя Variable Selection Network (VSN), который специально разработан для автоматического выявления и фокусирования на наиболее важных признаках. Используя эти методы, сокращение количества признаков может быть эффективным способом улучшения производительности моделей прогнозирования временных рядов.
towardsdatascience.com
Is Less More? Do Deep Learning Forecasting Models Need Feature Reduction?