Что будет если обучать бесконечно широкую нейронную сеть?
В статье “Wide Neural Networks of Any Depth“ утверждается, что результат будет точно такой же, как и обучение линейной модели градиентным спуском. Чтобы работать с бесконечно широкими сетями, в статье вводят ядро NTK (neural tangent kernel), решают диффуры и так далее. Получается, что обучение бесконечно широких сетей -- это *ядерный метод*.
На семинаре планируется следующее:
- рассказ про Kernel Regression
- рассказ про обучение бесконечно широк
37 views
29
5
4 months ago 00:19:28 1
Linux drops Russian maintainers, CoreBoot nonsense & Snap drivers - Linux & Open Source News
2 years ago 00:50:09 1
Revisiting Nearest Neighbors from a Sparse Signal Approximation View