Published using Google Docs
Вопросы к итоговой КР ML ВШЭ РЭШ.docx
Updated automatically every 5 minutes

Вопросы к итоговой КР по второй части курса

Машинное обучение

  1. Основные определения в машинном обучении: объект, целевая переменная, признак, модель, обучающая выборка, функционал ошибки, обучение. Приведите примеры задач обучения с учителем и без учителя.
  2. Переобучение. Оценивание обобщающей способности модели: отложенная выборка и кросс-валидация. Leave-one-out, k-fold CV. Гиперпараметры, их отличия от обычных параметров модели.
  3. Линейная модель регрессии. Функционалы ошибки для регрессии. Аналитическое решение для среднеквадратичной ошибки (с выводом) и его недостатки.
  4. Линейная модель регрессии. Градиентное обучение линейной регрессии. Метод градиентного спуска, метод стохастического градиентного спуска.
  5. Регуляризация. Аналитический вид ответа (вектора весов) в линейной регрессии со среднеквадратичной ошибкой и квадратичным регуляризатором (с выводом).
  6. Регуляризация. L1 и L2 регуляризаторы. Почему использование L1-регуляризатора приводит к отбору признаков, а L2 - нет?
  7. Линейная модель бинарной классификации. Отступ. Обучение линейных классификаторов через верхнюю оценку на долю ошибок. Примеры верхних оценок.
  8. Логистическая регрессия. Вывод логистической функции потерь из метода максимального правдоподобия.
  9. Функционалы ошибки для бинарной классификации: матрица ошибок, accuracy, precision, recall, F-мера. ROC-кривая и AUC-ROC.
  10. Нейронные сети: структура, функции активации, функции потерь для разных задач. Метод обучения. Подсчет градиентов методом обратного распространения ошибки.
  11. Решающие деревья: определение и жадный алгоритм обучения (разбиение вершин, критерий останова, выбор ответа в листе). Функционал качества при выборе предиката. Общий вид критерия информативности (через функцию потерь) и его объяснение.
  12. Решающие деревья. Общий вид критерия информативности (через функцию потерь) и конкретные примеры (с выводом) для регрессии (дисперсия) и классификации (критерий Джини и энтропийный критерий). Виды регуляризации деревьев.
  13. Композиции алгоритмов. Разложение ошибки на смещение и разброс и его смысл.
  14. Бэггинг и случайные леса. За счет уменьшения какого члена разложения ошибки данная композиция начинает работать лучше (с объяснением)?
  15. Бустинг: общая схема. За счет уменьшения какого члена разложения ошибки данная композиция начинает работать лучше (с объяснением)?
  16. Градиентный бустинг. Обучение базовых алгоритмов для произвольной дифференцируемой функции потерь.
  17. Задача кластеризации: постановка и метрики качества. В чем сложность данной задачи? Иерархическая кластеризация. Метод k-means. Инициализация k-means++.
  18. PCA. Постановка задачи и ее решение через последовательное нахождение главных компонент.
  19. Определение SVD-разложения. Постановка задачи PCA и нахождение ее решения через SVD-разложение.
  20. Обработка текстов: методы векторизации документов. Count vectorizer и TF-IDF vectorizer. В чём теоретическое преимущество второго метода над первым