Deep Frank-Wolfe for neural network optimization
Learning a deep neural network requires solving a challenging optimization problem: it is a high-dimensional, non-convex and non-smooth minimization problem with a large number of terms. The current practice in neural network optimization is to rely on the stochastic gradient descent (SGD) algorithm...
প্রধান লেখক: | Berrada, L, Zisserman, A, Kumar, MP |
---|---|
বিন্যাস: | Internet publication |
ভাষা: | English |
প্রকাশিত: |
arXiv
2018
|
অনুরূপ উপাদানগুলি
অনুরূপ উপাদানগুলি
-
Deep Frank-Wolfe for neural network optimization
অনুযায়ী: Berrada, L, অন্যান্য
প্রকাশিত: (2019) -
Training neural networks for and by interpolation
অনুযায়ী: Berrada, L, অন্যান্য
প্রকাশিত: (2020) -
Riemannian Optimization via Frank-Wolfe Methods
অনুযায়ী: Weber, Melanie, অন্যান্য
প্রকাশিত: (2022) -
Riemannian optimization via Frank-Wolfe methods
অনুযায়ী: Weber, M, অন্যান্য
প্রকাশিত: (2022) -
New analysis and results for the Frank–Wolfe method
অনুযায়ী: Freund, Robert Michael, অন্যান্য
প্রকাশিত: (2016)