Лекция №9 «Архитектуры CNN»

Девятое занятие на курсе «Нейронные сети и их применение в научных исследованиях» для группы НС224. Преподаватель: Александр Пославский Таймкоды: 0:00 Базовые компоненты сверточных сетей 4:45 ImageNet Large Scale Visual Recognition Challenge 11:20 Обзор сети AlexNet(2012 г.) 22:43 Архитектура ZFnet(2013 г.) 23:32 Обзор сети VGGNet(2014 г.) 26:08 Оценка вычислительных ресурсов 41:34 Обзор сети GoogleNet(2014 г.) 45:26 Inception module 48:34 1x1 Convolution 49:33 Stem network 51:09 Global Average Pooling 52:51 Появление “глубоких“ моделей (deep models) 53:28 Обзор сети ResNet(2015 г.) 54:01 Resudial connection 55:55 Архитектура ResNet 57:47 ResNet: bottleneck layer 1:00:24 Обучение ResNet 1:00:51 Обзор сети ResNeXt(2016 г.) 1:02:05 Groupped Convolution 1:02:48 Feature extraction 1:07:30 Сравнение моделей 1:09:07 Обзор сети DenseNet(2016 г.) 1:10:11 Архитектура SENet(2017 г.) 1:13:32 Обзор сети MobileNet(2017 г.) 1:13:50 Depthwise separable convolution 1:18:44 Swish 1:23:14 Neural Architecture Search 1:27:59 Обзор сети EfficientNet(2019 г.) 1:32:15 Обзор Visual Transformers(2020 г.) 1:33:44 Недостатки сверточного слоя 1:35:02 Self-attention 1:36:51 Position embedding 1:37:51 Архитектура ViT 1:38:48 Предсказание с помощью ViT 1:39:50 Обучение ViT 1:40:29 Использование ViT с собственным датасетом 1:41:32 Обзор сети MLP-Mixer(2020 г.) 1:44:40 Ответы на вопросы Ссылка на лекцию: VK: Telegram:
Back to Top