Видеокурс по машинному обучению Лекция 1. Введение в машинное обучение Лекция 2. Линейные модели регрессии На этой лекции по машинному обучению рассмотрены следующие темы:— Постановка задачи регрессии.— Целевая функция линейной регрессии и ее вывод на основе принципа максимального правдоподобия.— Normal Equation: вывод формулы для вычисления оптимальных параметров линейной регрессии. Лекция 3. Регуляризация линейных моделей регрессии В рамках лекции рассмотрен базовый метод регуляризации линейных моделей регрессии:— Зачем нужна регуляризация.— Метод Weight Decay.— Как меняется целевая функция.— Вычисление параметров модели при использовании регуляризации. Лекция 4. Классификация Лекция по курсу «Машинное обучение» на тему «Классификация». Рассмотрены следующие вопросы:— Постановка задачи классификации.— Основные метрики оценки точности классификации.— Логистическая регрессия.— Функция Softmax.параметров модели при использовании регуляризации. Лекция 5. Логистическая регрессия Лекция посвящена алгоритму логистической регрессии. Рассмотрены следующие вопросы:— Целевая функция для задачи классификации и ее вывод на основе принципа максимального правдоподобия.— Градиентный спуск.— Вычисления частных производных целевой функции по параметрам модели.модели при использовании регуляризации. Лекция 6. Деревья решений Лекция посвящена деревьям решений для задачи классификации. Рассмотрены следующие темы:— Структура дерева решений: внутренние и терминальные узлы.— Обучение внутреннего узла. Виды разделяющих функций. Целевая функция: Information Gain.— Критерии прекращения роста дерева.— Создание терминального узла. Лекция 7. Random Forest Лекция посвящена алгоритму Random Forest. Рассмотрены следующие темы:— Ансамбль классификаторов. Преимущества объединения деревьев решений в ансамбль.— Как вырастить деревья разными?— Bagging.— Random Node Optimization. Лекция 8. Введение в AdaBoost Лекция посвящена алгоритму AdaBoost. Рассмотрены следующие темы:— Обучение на взвешенной выборке.— Вид сильного классификатора в AdaBoost.— Обучение очередного слабого классификатора в алгоритме AdaBoost.— Вычисление веса для обученного слабого классификатора.— Обновление весов для элементов обучающей выборки. Лекция 9. Математические основы AdaBoost Лекция посвящена математическим основам алгоритма AdaBoost. Рассмотрены следующие вопросы:— Целевая функция алгоритма AdaBoost.— Вывод целевой функции для обучения очередного слабого классификатора.— Вывод формулы вычисления веса для слабого классификатора.— Вывод формулы обновления весов элементов обучающей выборки. Лекция 10. Кластеризация Лекция посвящена алгоритмам кластеризации. Рассмотрены следующие вопросы:— Постановка задачи кластеризации.— Алгоритм k-means.— Целевая функция алгоритма k-means.— Вывод формул обновления весов из целевой функции.— Агломеративная кластеризация.— Способы вычисления расстояния между кластерами: Single-Link, Average-Link, Complete-Link.