Методы оптимизации 8. Негладкая оптимизация. AdaGrad, AdaGradNorm, RMSProp, Adam

Лекция была смонтирована из множества кусков. Считайте, что отсутствующие кадры и плохой звук -- пасхалки 00:00:00 - интро 00:04:30 - субградиент, условие оптимальности 00:17:44 - субградиентный метод 00:22:47 - доказательство сходимости субградиентного метода 00:43:38 - конец перерыва 00:48:15 - AdaGradNorm, AdaGrad 01:13:05 - RMSProp, Adam 01:21:38 - конец доказательства AdaGrad (zoom) Дата лекции: Лектор: Безносиков Александр Николаевич Оператор: Порай Екатерина Монтажёр: Хатымов Ренат Плейлист на ютубе: Плейлист в вк:
Back to Top