Видеокурс по машинному обучению

Лекция 1. Введение в машинное обучение

Лекция 2. Линейные модели регрессии

На этой лекции по машинному обучению рассмотрены следующие темы:

— Постановка задачи регрессии.

— Целевая функция линейной регрессии и ее вывод на основе принципа максимального правдоподобия.

— Normal Equation: вывод формулы для вычисления оптимальных параметров линейной регрессии.

Лекция 3. Регуляризация линейных моделей регрессии

В рамках лекции рассмотрен базовый метод регуляризации линейных моделей регрессии:

— Зачем нужна регуляризация.

— Метод Weight Decay.

— Как меняется целевая функция.

— Вычисление параметров модели при использовании регуляризации.

Лекция 4. Классификация

Лекция по курсу «Машинное обучение» на тему «Классификация». Рассмотрены следующие вопросы:

— Постановка задачи классификации.

— Основные метрики оценки точности классификации.

— Логистическая регрессия.

— Функция Softmax.параметров модели при использовании регуляризации.

Лекция 5. Логистическая регрессия

Лекция посвящена алгоритму логистической регрессии. Рассмотрены следующие вопросы:

— Целевая функция для задачи классификации и ее вывод на основе принципа максимального правдоподобия.

— Градиентный спуск.

— Вычисления частных производных целевой функции по параметрам модели.модели при использовании регуляризации.

Лекция 6. Деревья решений

Лекция посвящена деревьям решений для задачи классификации. Рассмотрены следующие темы:

— Структура дерева решений: внутренние и терминальные узлы.

— Обучение внутреннего узла. Виды разделяющих функций. Целевая функция: Information Gain.

— Критерии прекращения роста дерева.

— Создание терминального узла.

Лекция 7. Random Forest

Лекция посвящена алгоритму Random Forest. Рассмотрены следующие темы:

— Ансамбль классификаторов. Преимущества объединения деревьев решений в ансамбль.

— Как вырастить деревья разными?

— Bagging.

— Random Node Optimization.

Лекция 8. Введение в AdaBoost

Лекция посвящена алгоритму AdaBoost. Рассмотрены следующие темы:

— Обучение на взвешенной выборке.

— Вид сильного классификатора в AdaBoost.

— Обучение очередного слабого классификатора в алгоритме AdaBoost.

— Вычисление веса для обученного слабого классификатора.

— Обновление весов для элементов обучающей выборки.

Лекция 9. Математические основы AdaBoost

Лекция посвящена математическим основам алгоритма AdaBoost. Рассмотрены следующие вопросы:

— Целевая функция алгоритма AdaBoost.

— Вывод целевой функции для обучения очередного слабого классификатора.

— Вывод формулы вычисления веса для слабого классификатора.

— Вывод формулы обновления весов элементов обучающей выборки.

Лекция 10. Кластеризация

Лекция посвящена алгоритмам кластеризации. Рассмотрены следующие вопросы:

— Постановка задачи кластеризации.

— Алгоритм k-means.

— Целевая функция алгоритма k-means.

— Вывод формул обновления весов из целевой функции.

— Агломеративная кластеризация.

— Способы вычисления расстояния между кластерами: Single-Link, Average-Link, Complete-Link.