https://youtu.be/x03dn0P82Ms; Лекция 1. Введение в глубокое обучение; 1:12:00; В рамках лекции рассмотрены следующие вопросы: Где применяется глубокое обучение? Почему появление таких алгоритмов стало возможным? Чем это принципиально отличается от неглубокого машинного обучения?
https://youtu.be/bn11u_Ijf8Y; Лекция 2. Многослойный персептрон; 1:16:38; Лекция посвящена базовой архитектуре – многослойному персептрону. Рассмотрены следующие вопросы: Нейрон: входы, веса, смещение, активация, функция активации. Архитектура: многослойный персептрон. Нотация.
https://youtu.be/yPriDUk1aD0; Лекция 3. Обратное распространение; 1:14:27; В рамках лекции рассмотрен метод обратного распространения — главный алгоритм обучения в AI — эффективный способ вычисления градиента целевой функции по обучаемым параметрам многослойного персептрона. Все формулы даны с выводом.
https://youtu.be/8AxCSlOL81Q; Лекция 4. Введение в сверточные нейронные сети; 1:06:34; Лекция посвящена главному методу современного компьютерного зрения — сверточным нейронным сетям. Рассмотрены следующие вопросы: Что такое свертка? Чем нейрон сверточного слоя отличается от нейрона полносвязного слоя? В чем преимущества сверточных слоев? Параметры сверточного слоя: размер сверточных фильтров, количество фильтров, страйд. Метод ZeroPadding.
https://youtu.be/-GeGKhsczEk; Лекция 5. Обратное распространение через сверточные слои; 0:59:20; На лекции рассмотрено обратное распространение через сверточные слои нейронной сети: вычисление частных производных по весам сверточных фильтров; вычисление частных производных по выходам нейронов предыдущего слоя; вычисление частных производных по смещениям.
https://youtu.be/Uk_kbmc2ZPM; Лекция 6. Pooling-слои. Свойства сверточных слоев. Архитектура VGG.; 1:24:42; В рамках лекции рассмотрены следующие темы: слои субдискретизации: max pooling и average pooling; свойства сверточных слоев; архитектура нейронной сети VGG; процесс классификации изображений нейронной сетью VGG на этапе тестирования, который, как выясняется, отличается от этапа обучения!
https://youtu.be/4qBwXKss5bY; Лекция 7. Регуляризация глубоких нейронных сетей; 0:44:44; В рамках этой лекции рассмотрены основные подходы к регуляризация нейронных сетей: Weight Decay; Data Augmentation; Dropout; Label Smoothing.
https://youtu.be/7ch141j043o; Лекция 8. Batch Normalization; 0:57:46; В рамках лекции рассмотрена пусть не самая удобная, но точно самая распространенная техника нормализации — Batch Normalization. Это последний шаг к полному пониманию ResNet, которой посвящена следующая лекция. Лекция раскрывает следующие вопросы: Что такое Batch Normalization? Какие есть объяснения тому, почему это работает? Как вычисляются производные через Batch Normalization?
https://youtu.be/QlC3Qt2Jl0M; Лекция 9. Residual Networks; 0:39:15; Лекция посвящена главной сверточной архитектуре в компьютерном зрении — ResNet! Так как к данному моменту мы с вами изучили все необходимые компоненты, то можно уверенно приступать к Residual Networks, которые могут иметь сотни слоев и при этом эффективно обучаться. В рамках лекции рассмотрены следующие вопросы: Эффект Training Degradation; Residual Connection, Residual Block; Архитектура ResNet; Свойства нейронных сетей ResNet.
https://youtu.be/2aX90Re6xEI; Лекция 10. Тонкости обучения и масштабирования нейронных сетей; 0:58:32; В рамках лекции рассмотрены следующие способы повышения точности глубоких нейронных сетей: Обучение со стохастической глубиной; Линейное масштабирование коэффициента обучения; Learning Rate Warm-up; Cosine Learning Rate Decay; Нулевое значение гаммы в Batch Normalization; Недобавление смещений в Weight Deay; Label Smoothing; Mixup Data Augmentation. Помимо этого рассматривается метод масштабирования нейронных сетей EfficientNet.
https://youtu.be/5S349SLfoyE; Лекция 11. Методы оптимизации в обучении глубоких нейронных сетей; 0:47:11; В рамках лекции рассмотрены следующие методы оптимизации, использующиеся в обучении глубоких нейронных сетей: Batch Gradient Descent; Stochastic Gradient Descent; Mini-Batch Gradient Descent; Momentum; Nesterov Accelerated Gradient; AdaGrad; Adam.