1 of 74

Машинное обучение для предсказания активности регуляторных районов генов

Пензар Дмитрий Дмитриевич

Преподаватель ФББ МГУ, мнс ИОГЕН

2 of 74

Зачем?

  1. Большое число заболеваний обусловлено генетическими причинами
  2. Часто мутация может увеличивать риск возникновения того или иного заболевания
  3. Даже если мы не говорим про заболевание, хорошо бы уметь давать рекомендации по образу жизни в зависимости от генетики человека

2

3 of 74

Схема в идеальном мире

3

Геном человека

Сильный искуственный интеллект

Прогноз на все случаи жизни

4 of 74

Схема в идеальном мире

4

Геном человека

Сильный искуственный интеллект

Прогноз на все случаи жизни

5 of 74

Схема в идеальном мире

5

Геном человека

модель1

модель

2

модель

N

Аггрегация

предсказаний

Специалист

6 of 74

Мутации

6

Кодирующие мутации

Регуляторные мутации

  1. Нейтральные
  2. Изменение структуры белка
  3. Нарушение каталитической активности
  4. Нарушение связывания с другими белками

  1. Нейтральные
  2. Изменение доступности хроматина
  3. Сплайсинг
  4. Эффекты на уровне регуляции трансляции

7 of 74

Текущие проблемы

  1. Малое количество данных
  2. Большой шум в данных
  3. Плохая переносимость
  4. Условия эксперимента != реальные условия

7

8 of 74

Регуляторные мутации. Сплайсинг

8

Model(ATGCACCACACAC) - Model(ATGCACGACACAC)

=

Эффект мутации

  1. Данных о точечных эффектах замен на сплайсинг - мало
  2. Научимся предсказывать для конкретной позиции быть сайтом сплайсинга
  3. Будем использовать разницу оценок для последовательности с мутацией и без как оценку эффекта мутации

10.1016/j.cell.2018.12.015

9 of 74

Регуляторные мутации. �Связывание транскрипционного фактора

9

Многие важные регуляторные мутации расположены в сайтах связывания транскрипционных факторов

Можно решать вместе с более общей проблемой, можно решать напрямую

10 of 74

Модели для предсказания эффекта регуляторной мутации

10

Предсказываем некое прокси – влияние на открытость хроматина, данные ChiP-Seq, …

Предсказываем эффект на экспрессию напрямую

Учимся на прямых данных об эффекте мутации или получаем предсказание косвенно

Учимся на данных одного эксперимента, или на нескольких одновременно

11 of 74

 

11

Самый частый эффект мутации в регуляторных регионах – изменения открытости хроматина. Из-за изменения связывания конкретно ТФ или нет – не всегда важно

12 of 74

 

12

Многие важные регуляторные мутации расположены в сайтах связывания транскрипционных факторов

Можно решать вместе с более общей проблемой, можно решать напрямую

13 of 74

Модели для предсказания эффекта регуляторной мутации

13

Предсказываем некое прокси – влияние на открытость хроматина, данные ChiP-Seq, …

Предсказываем эффект на экспрессию напрямую

Учимся на прямых данных об эффекте мутации или получаем предсказание косвенно

Учимся на данных одного эксперимента, или на нескольких одновременно

14 of 74

Прямых данных о влиянии мутаций на доступность хроматина мало и они «прямые» (даже если грести все данные)

14

  1. Есть данные об аллель-специфичном связывании
  2. Большая часть – очень шумная и получена косвенным методом
  3. Можно использовать только для валидации
  4. Скоро будут опубликованы более точные данные, но они тоже не идеальны

10.1038/s41467-021-23007-0

15 of 74

Модели для предсказания эффекта регуляторной мутации

15

Предсказываем некое прокси – влияние на открытость хроматина, данные ChiP-Seq, …

Предсказываем эффект на экспрессию напрямую

Учимся на прямых данных об эффекте мутации или получаем предсказание косвенно

Учимся на данных одного эксперимента, или на нескольких одновременно

16 of 74

Как мы предсказывали эффект, зная доступность?

16

A/T

AGTACGACGCACG

AGTACGTCGCACG

Доступность хроматина 1

Доступность хроматина 2

Влияние замены = Доступность хроматина 2 - Доступность хроматина 1

17 of 74

Общая схема косвенного* предсказания

17

A/T

AGTACGACGCACG

AGTACGTCGCACG

(Предсказанная) Доступность хроматина 1

(Предсказанная)Доступность хроматина 2

Влияние замены = Доступность хроматина 2 - Доступность хроматина 1

* Для увеличения импакта статьи пишем “zero-shot learning”, т.к мы учимся на одних данных, и предсказываем другие, не обучаясь на них специально

18 of 74

Gkm/deltaSVM

18

  1. Основана на методе опорных векторов и его последующем «огрублении»
  2. Предсказываем доступность хроматина бинарно – доступен или нет
  3. Из SVM можно вытащить число, которое в нулевом приближении соответствует уверенности модели в предсказании класса
  4. Используем это число в предыдущей схеме

doi.org/10.1038/ng.3331

19 of 74

Модели для предсказания эффекта регуляторной мутации

19

Предсказываем некое прокси – влияние на открытость хроматина, данные ChiP-Seq, …

Предсказываем эффект на экспрессию напрямую

Учимся на прямых данных об эффекте мутации или получаем предсказание косвенно

Учимся на данных одного эксперимента, или на нескольких одновременно

20 of 74

Косвенные данные

20

https://gtrd.biouml.org/

21 of 74

Multi-target learning

1. Каждому объекту соответствует большое число разных значений, которые мы хотим предсказывать.

2. При этом эти значения связаны, например растворимость и токсичность.

3. Данные об одном значении косвенно говорят нам информацию о других (и помогают отсеять шум)

4. Потому обучаясь предсказывать сразу все значения, мы можем достигнуть более высокого качества

21

X

 

 

 

 

https://www.youtube.com/playlist?list=PLoROMvodv4rNjRoawgt72BBNwL2V7doGI

22 of 74

Multi-target learning. Доступность хроматина

  1. 1. Каждому участку генома соответствует информация из разных типов экспериментов для разных клеточных линий
  2. При этом эти значения связаны:

1) методы оценки доступности хроматина дают коррелированные значения

2) есть похожие клеточные линии, есть константно открытые/закрытые участки

3. Данные об одном значении косвенно говорят нам информацию о других

4. Потому, обучаясь предсказывать сразу все значения, мы можем достигнуть более высокого качества

22

seq

 

 

 

 

23 of 74

Как перейти от предсказаниядля большого числе экспериментов к одному числу, оцениваниющими эффект мутации?

24 of 74

Как перейти от предсказаниядля большого числе экспериментов к одному числу, оцениваниющими эффект мутации? Вариант 1

1) Учим на этих еще одну модель, используя прямые данные

2) Теряем zero-shot☹

 

 

 

 

 

 

 

 

 

 

Модель

второго

уровня (linreg, xgboost)

score

25 of 74

Как перейти от предсказаниядля большого числе экспериментов к одному числу, оцениваниющими эффект мутации?

 

 

  1. Выбрать наиболее подходящий эксперимент (для клеток крови взять данные клеток крови, и т.д.)
  2. Аггрегировать изменения по разным экспериментам в одно число без машинного обучения

26 of 74

Как перейти от предсказаниядля большого числе экспериментов к одному числу, оцениваниющими эффект мутации?

Похоже на агреггацию, но более умные слова:

Используем предсказанные значения как описание последовательностей и считаем между ними расстояние

 

27 of 74

DeepSEA

27

10.1038/nmeth.3547

  1. Учим нейронную сеть предсказывать результаты сразу 919 экспериментов (тоже – есть или нет связывание, классификация)
  2. Для этого используем последовательность длины 1000н
  3. Можем посчитать эти предсказания для последовательности без и с заменой
  4. Далее обучаем на этих предсказаниях, используя маленький датасет, дополнительную модель
  5. Потеряли zero-shot, приходится дообучаться на шумных данных

28 of 74

Beluga (DeepSEA-2019)��

28

  1. 2002 эксперимента из ENCODE
  2. Задачу ставим как бинарную классификацию
  3. Окно теперь в 2000 нуклеотидов, предсказываем для 200 центральных нуклеотидов
  4. К полученным признакам применяется понижение размерности, затем на них учится XGBoost предсказывать tissue-specific экспрессию в 200 клеточных линиях

10.1038/s41588-018-0160-6

29 of 74

Sei (DeepSEA-2022)��

29

10.1038/s41588-022-01102-2

  1. 21,907 эксперимента из ENCODE и др
  2. Задачу ставим как бинарную классификацию
  3. Окно теперь в 4000 нуклеотидов,
  4. Якобы «novel architecture» - по сути же novel оно только для линейки DeepSEA
  5. Можно использовать полученные предсказания как эмбединги последовательностей – они (предсказуемо) делятся по ТФ и тд

30 of 74

Классификация vs регрессия

30

Можем трактовать задачу как классификацию – есть открытые участки хроматина, есть закрытые. Учимся отличать.

Необходимо выбрать правила, по которым считаем участок открытым

Можем трактовать задачу как регрессию. Это более естественно и позволяет нам давать сети данные настолько сырыми, насколько возможно, что по примерам из других доменов - лучше

10.1038/s42256-022-00570-9

31 of 74

Классификация vs регрессия

31

Можем конвертировать предсказания классификационных моделей в аналог предсказания регрессионных, и наоборот. Сравнивая, получаем, что регрессионные модели всегда лучше. Лучше использовать данные, наиболее близкие к исходным

32 of 74

Basenji2

32

  1. Регрессионная модель
  2. Предсказываем число каунтов в каждом из бинов размера 128 нуклеотидов (за счет dilated convolutions)
  3. Так как число каунтов – целое, то используется Poisson loss
  4. Сильно бОльшая последовательность - 1024 * 128 = 131072 пар оснований
  5. Берем данные не только для человека, но и для мыши. Улучшает предсказание и на человеке

10.1371/journal.pcbi.1008050

33 of 74

Enformer

33

  1. Учим нейронную сеть предсказывать численные результаты сразу 7000+ экспериментов (регрессия)
  2. Используем последовательность сильно бОльшего размера (100кб)
  3. Можем посчитать эти предсказания для последовательности без и с заменой
  4. Далее обучаем лассо-регрессию на этих предсказаниях, используя маленький датасет,
  5. Но можно просто усреднить предсказания по клеточным линиям, близким целевой или активным ТФ – тоже получается хорошее предсказание – zero-shot вернулся

10.1038/s41592-021-01252-x

34 of 74

Задача решена?

34

  1. DeepMind заявил, что да
  2. (Нет, не решена)

35 of 74

Нюансы

35

  1. При корректном анализе оказывается, что Enformer никак не использует бОльшую глубину окна – не в состоянии улавливать эффекты, проявляющиеся на больших расстояниях (10.1186/s13059-023-02899-9)
  2. Главное заявление статьи – научились предсказывать эффекты мутаций на экспрессию – ложно. Аккуратное измерение этого не подтверждает (10.1101/2023.03.16.532969v1)
  3. Интересно, что силу эффекта получается предсказать лучше, чем направление
  4. Enformer обучался на очень большом числе экспериментов – нужны очень аккуратно выбирать данные для оценки его качества, иначе легко взять данные, которые модель уже видела (data leakage)

36 of 74

Нюансы 2 (данные человеческих промоторов)

36

Enformer

Simple CNN

10.1101/2023.03.05.531189

37 of 74

Модели для предсказания эффекта регуляторной мутации

37

Предсказываем некое прокси – влияние на открытость хроматина, данные ChiP-Seq, …

Предсказываем эффект на экспрессию напрямую

Учимся на прямых данных об эффекте мутации или получаем предсказание косвенно

Учимся на данных одного эксперимента, или на нескольких одновременно

38 of 74

Прямых данных мало и они «прямые»

38

  1. Есть данные об эффекте мутаций в конкретных регуляторных последовательностях
  2. До недавнего времени – данных мало
  3. Большая часть – очень шумная и получена косвенным методом
  4. Можно использовать только для валидации

10.1002/humu.23797

39 of 74

Прямых данных мало и они «прямые»

39

10.1038/s41586-021-03211-0

Можно получать при помощи SELEX (SNP-SELEX)

Данные грязные и малочисленные

40 of 74

Модели для предсказания эффекта регуляторной мутации

40

Предсказываем некое прокси – влияние на открытость хроматина, данные ChiP-Seq, …

Предсказываем эффект на экспрессию напрямую

Учимся на прямых данных об эффекте мутации или получаем предсказание косвенно

Учимся на данных одного эксперимента, или на нескольких одновременно

41 of 74

Massively parallel reporter essays (дрожжи)

41

  1. Вставляют случайные последовательности длины 80н перед экспрессируемым белком
  2. Кроме того, в конструкции есть константно экспрессируемый белок
  3. Если последовательность сильно увеличивает экспрессию – клетка будет светиться желтым. Если сильно понижает – красным. И т.д
  4. Далее остается отсортировать клетки по светимости и отсеквенировать

10.1038/s41587-019-0315-8

42 of 74

DREAM2022 LegNet

42

На этих данных даже устраиваются конкурсы побеждает наша нейросеть ☺

 10.1093/bioinformatics/btad457

43 of 74

Massively parallel reporter assays (человек)

43

  1. Делают и эксперименты, дающие в том числе непрерывные измерения
  2. Ограничения пока те же, что в прошлом эксперименте – размер последовательности небольшой, и конструкции не позволяют оценивать дальние взаимодействия

doi.org/10.1101/2023.03.05.531189

44 of 74

TL;DR 1й части

  1. Есть множество подходов для предсказания эффектов регуляторных мутаций
  2. На данный момент наиболее известные и разработанные – косвенное предсказание через численно (а не качественно) предсказанную активность хроматина
  3. Даже в этом подходе остается множество вопросов, в частности – текущие модели не учат дальние взаимодействия, хотя потенциально могут
  4. Становится все больше прямых данных об влиянии регуляторных участков на экспрессию, получаемых при помощи MPRA*

44

*При этом область не так загажена занята

45 of 74

Особенности реализации

45

46 of 74

Как работать с нуклеотидной последовательностью?

46

 

Либо трактовать как текст

Либо трактовать как 1D-изображение

47 of 74

Идейно должно работать примерно так*

47

*По факту – сильно не всегда, это даже не первое, а нулевое приближение того, что происходит в модели

10.1038/s41576-019-0122-6

48 of 74

Откуда брать идеи для архитектуры?

48

 

49 of 74

Откуда брать идеи для архитектуры?

49

 

  1. Лучше всего брать архитектуры из области, к которой вы свели свою задачу
  2. Лучше всего посмотреть, какие архитектуры сейчас наиболее популярны
  3. Не попадайтесь на хайп – самая хайповая != наиболее используемая и/или качественная
  4. Хороший выбор для начала – ResNet, DenseNet, EfficientNetV2. Вероятнее всего вам потребуется архитектура сильно меньше
  5. Можете использовать нашу архитектуру – LegNet (https://github.com/autosome-ru/LegNet), она дает как минимум хороший старт

50 of 74

На что стоит обратить внимание?

50

… training methods and scaling strategies can have even larger impacts [than architectural changes]

 Revisiting ResNets … (arxiv.org/abs/2103.07579)

  1. Посмотрите, как учили архитектуру, которую вы взяли за основу.
  2. Смиритесь с тем, что подбирать параметры обучения придется, и долго
  3. Один из хороших подходов – OneCycleLR + AdamW

51 of 74

Любая информация - важна

51

  1. Например, мы знаем, что наша модель должна по-разному работать для прямой и обратной комплементарной последовательности – передаем ей информацию о цепи
  2. Знаем, что часть данных хуже, чем остальные – их тоже можно пометить

52 of 74

Receptive field

52

53 of 74

Receptive field != размер входной последовательности

53

Взаимодействия потенциально видим только на таком расстояние – receptive field

A

B

C

D

Взаимодействия факторов C и D с фактором A мы не увидим

54 of 74

Аугментация – что и зачем?

  1. Многие датасеты, в том числе биологические, в сравнении с уровнем шума в них малы. Даже если вы учитесь на геноме человека
  2. Потому полезно добавить в выборку немного измененные данные – это помогает предотвратить переобучение и сделать модель более устойчивой к шуму

54

55 of 74

Аугментация – reverse-complement

55

  1. Для последовательностельностей почти всегда можно делать reverse-complement аугментацию. Если ориентация при этом важна – не забываем сказать модели об этом

56 of 74

Аугментация – shifts

56

2. Если предсказываем что-то в геноме – можно немного двигать окошко вокруг предсказываемой позиции. Насколько можно двигать и в любую ли сторону – зависит от задачи

57 of 74

Аугментация – общий совет

57

Если вы знаете, что какое-то изменение в входном объекте не меняет суть задачи – можно попробовать добавлять такое изменение в качестве аугментации

Заимствовать аугментации напрямую из изображений – плохая идея. Многое не работает (mixup и прочее).

58 of 74

Test-time аугментация

Во время предсказания часто можно сделать много немного измененных версий нашего объекта и усреднить предсказание для них всех

58

59 of 74

Оценка значимости при помощи test-time аугментации

А еще из такого набора предсказаний можно оценить дисперсию предсказаний модели и отбирать только значимые предсказания*

59

*иногда может выйти чушь

60 of 74

Как разбить данные

60

61 of 74

Как разбить данные. Случайные последовательности

Сложностей (почти) нет, в принципе, можно разбить случайным образом

Можно разбить на осмысленные группы, например, все последовательности, померянные с хорошей достоверностью, послать в валидацию

61

62 of 74

GC-состав

Участки открытого хроматина/сайты связывания транскрипционных факторов смещены по gc-составу

Потому качество классификации модели, что учится их отличать по gc-составу будет отлично от 0.5

Можно с этим бороться (грубый способ – biasaway), можно просто бейзлайн выбрать с учетом этого.

62

63 of 74

Геномные данные. Плохой вариант

63

Разбить геном на случайные куски – часть идет в обучение, часть идет в тестирование

64 of 74

Геномные данные. Плохой вариант

64

10.1371/journal.pcbi.1006625

65 of 74

Геномные данные. Плохое разбиение

65

10.3389/fgene.2019.01078

Можно заменить последовательности абсолютно другими, наложить сигнал с первых и все равно получить хорошее качество

66 of 74

Геномные данные. Плохое разбиение

66

Разбить геном на случайные куски – часть идет в обучение, часть идет в тестирование

Почти любой геномный сигнал вдоль последовательности непрерывен – близкие участки хорошо говорят друг о друге – модель просто выучивает позиции в геноме.

67 of 74

Геномные данные. Правильные разбиения

67

Часть хромосом – в обучение

Часть хромосом – в тест

Часть плечей хромосом – в обучение

Часть плечей хромосом – в тест

Позволяет модели смотреть особенности хромосом

68 of 74

TL;DR 2й части

  1. Есть два основных подхода к работе с нуклеотидными последовательностями – трактовать их как текст или как изображения
  2. Обе трактовки позволяют достаточно несложно адаптировать модели из general ml в биологию.
  3. Важна не только архитектура модели, но и то, как ее обучали, какие аугментации использовали и тд
  4. Аугментацию можно использовать и для финального предсказания, усредняя предсказания и оценивая уверенность модели
  5. Очень важной проблемой при работе с геномными последовательностями является правильное разбиение на обучение и валидацию, избегающее data leakage. Повсеместно используется разбиение по хромосомам.

68

69 of 74

Подробнее про проблему разбиения биологических данных для машинного обучения

69

70 of 74

Unsupervised/Self-supervised

Подходы, основанные на unsupervised/self-supervised обучении хорошо помогают в случае белков (AlphaFold2 использует self-supervised часть в том числе)

Хочется использовать это и для геномных последовательностей. Насколько это работает – вопрос, который осветят в среду

Следущие слайды для кеков.

70

71 of 74

DNABERT

71

Авторы заявляют, что у них предобучение работает лучше, чем обычное обучение.

Предобученные модели и модели с случайной инициализацией весов обучали одинаково.

Что происходит на графике?

72 of 74

DNABERT

72

Трансформеры, особенно сравнительно старые, склонны взрываться и выдавать после этого какое-то константное значение. Модели со случайной инициализацией (кроме 3-init) просто взрываются. В случае 3-init с большой вероятностью померла только часть весов

doi.org/10.1093/bioinformatics/btab083

73 of 74

DNABERT: мораль

73

ВСЕГДА, когда вам пытаются продать модель, которая училась в несколько этапов, проверяйте, что те модели, с которыми она сравнивалась, учились в максимально похожих с ней

74 of 74

Вероятно кек из той же области (а может крутая тема)

74

doi.org/10.1186/s13059-023-02941-w