1 of 16

Новые признаки для

прогнозирования волатильности

методами машинного обучения

Иванов М.А.�Консультант: Немченко В.�Научные руководители: Рощина Я.А., Королев В.Ю.

Курс: «Нейронные сети и их применение в научных исследованиях»

2 of 16

Модели волатильности GARCH

это рекуррентные нейросети

Иванов М.А.�Консультант: Немченко В.�Научные руководители: Рощина Я.А., Королев В.Ю.

Курс: «Нейронные сети и их применение в научных исследованиях»

3 of 16

Введение в тему

  • Почему меняются цены на биржах? (акций, нефти, золота, …)
  • Цена сейчас = прошлая цена + приращение.
  • Среднее приращение нулевое. Однако цены изменяются.
  • Драйвер цены – волатильность (дисперсия, второй момент).
  • Отсюда интерес к моделированию и прогнозированию волатильности.�

Модели GARCH – это рекуррентные нейросети

4 of 16

Модели GARCH – это рекуррентные нейросети

Минутные цены акций на Мосбирже для 19 тикеров с большим оборотом торговли (AFLT, ALRS, GAZP, SBER, …):

  • Временные ряды (всего 19):
    • Дневные лог-доходности: приросты цены.
    • Реализованная дисперсия: оценка “истинной” дисперсии/волатильности за день.
  • Источник: брокер Финам. Высокое качество, простая предобработка.
  • Временной интервал: 01.02.2018-01.02.2022. В каждом из 19 рядов – 1000 ежедневных наблюдений.
  • Для валидации – информационные критерии и кросс-валидация для временных рядов.
  • Рекуррентные модели GARCH:
    • Вход: лаги доходностей, лаги дисперсии (скрытого состояния).
    • Выход: прогноз дисперсии.

Данные

5 of 16

Модели GARCH – это рекуррентные нейросети

Дневные доходности SBER

Данные

6 of 16

Модели GARCH – это рекуррентные нейросети

Логарифм реализованной дисперсии SBER

Данные

7 of 16

Модели: эконометрика

  • Стандартная модель – GARCH:��
  • ω, α, β - обучаемые параметры.
  • Доходность – прирост логарифма цены:
  • σ – стандартное отклонение.

Есть множество разновидностей, но эта основная, наиболее популярная.

Функция потерь: отрицательное лог-правдоподобие нормального распределения.�

Модели GARCH – это рекуррентные нейросети

8 of 16

Модели: нейронные сети

  • Рекуррентная нейросеть Элмана:��
  • x – входной временной ряд (например, квадраты доходностей).
  • h – скрытое состояние.
  • y – прогноз (например, логарифма волатильности).

Скрытое состояние – “память” модели.

Модели GARCH – это рекуррентные нейросети

9 of 16

Модели: GARCH+RNN

  • Стандартная модель волатильности – GARCH:
  • С многомерной дисперсией (смешанная GARCH):��
  • Добавим функцию активации:�
  • Идея данной работы: GARCH – рекуррентная нейросеть.
  • Дисперсии = скрытое состояние рекуррентной нейросети.

Функция потерь: отрицательное лог-правдоподобие смеси нормальных распределений.

Основная идея: GARCH – это уже рекуррентная нейросеть. Давайте развивать GARCH в “нейросетевом” направлении.

Модели GARCH – это рекуррентные нейросети

10 of 16

Устойчивость GARCH-RNN

  • Оценить GARCH-RNN 150 раз с разных начальных значений параметров.
  • Верхний график: динамика 3-х скрытых состояний.
    • 150 оценок каждого из них примерно совпадают.
  • Нижний график: динамика оценённой дисперсии.
    • 150 оценок полностью совпадают.

Вывод: оценки слабо зависят от начальных параметров.

Поэтому дальнейшие результаты – не случайность.

Модели GARCH – это рекуррентные нейросети

11 of 16

Модели GARCH – это рекуррентные нейросети

Среднеквадратичная ошибка MSE, квазиправдоподобие QLIKE:

  • Прогноз дисперсии
  • vs реализованная дисперсия RV.

Обе устойчивы к шуму в RV. Стандартные метрики:

  • [Teller & Pigorsch, 2022]: линейные и XGBoost.
  • [Petrozziello et al., 2022]: LSTM и GARCH.
  • [Jung & Choi, 2021]: LSTM.

В прогнозировании волатильности в качестве метрик всегда используют функции потерь.

Метрики

12 of 16

Модели GARCH – это рекуррентные нейросети

  • Линейные модели: гетерогенная авторегрессия [Corsi, 2009] и её разновидности.
  • Нелинейные авторегрессионные модели:
    • Нейросети прямого распространения.
    • Бустинг [Teller & Pigorsch, 2022].
  • Рекуррентные модели:
    • Обобщённая авторегрессионная гетероскедастичность (ARCH, GARCH и др.)
    • Рекуррентные нейросети (обычно LSTM [Petrozziello et al., 2022; Jung & Choi, 2021]).
    • GARCH-RNN!

Обзор существующих решений

13 of 16

Модели GARCH – это рекуррентные нейросети

Результаты: in-sample

Описательная способность: критерий Акаике.�GARCH-RNN (MixGARCH) лучше GARCH (80% случ.)

14 of 16

Модели GARCH – это рекуррентные нейросети

Результаты: out-of-sample

Прогноз волатильности на 1 день вперёд.

GARCH-RNN лучше в 52% случаев.

15 of 16

Модели GARCH – это рекуррентные нейросети

  • Разобраться, почему прогноз не улучшился.
  • Использовать больше признаков:
    • Больше лагов квадратов доходностей.
    • Лаги реализованной дисперсии.
  • Сделать модель многослойной.
  • Добавить в модель “скорость” скрытого состояния, как в LSTM и оптимизаторе momentum.

План

16 of 16

Модели GARCH – это рекуррентные нейросети

  • Стандартные модели GARCH обобщены до полноценных рекуррентных нейросетей с функцией активации в скрытом слое => GARCH-RNN.
  • Информационные критерии предпочитают GARCH-RNN по сравнению с GARCH.
  • Точность прогноза GARCH-RNN иногда лучше, а иногда хуже точности GARCH.

Заключение