Методы и алгоритмы машинного обучения 3. Оптимизация. Градиентный спуск. Ускорение. SGD

Таймкоды: 00:00:00 - Задача оптимизации 00:08:10 - Общая итеративная схема 00:11:07 - Критерии сходимости 00:21:00 - Метод перебора 00:27:00 - Оценки времени работы 00:33:00 - Сильная выпуклость и гладкость 00:36:06 - Градиентный спуск 00:42:23 - Зависимость от величины шага 00:44:55 - Оценка шага для сильно выпуклых функций 00:50:49 - Метод тяжелого шарика 00:57:30 - Реализация в python 01:00:00 - Плюсы и минусы метода 01:02:10 - Ускоренный метод Нестерова 01:06:09 - Стохастическая оптимизация 01:12:30 - Уменьшающийся шаг 01:14:00 - Батчинг 01:16:10 - Комбинация методов Дата лекции: Лектор: Безносиков Александр Николаевич Оператор: Саблина Лада Монтажёр: Дядюкина Дарья Плейлист на YouTube: =PL4_hYwCyhAvYwERTJvDSNRMMN8bcdtzia Плейлист в ВК:
Back to Top