Deep Frank-Wolfe for neural network optimization

Learning a deep neural network requires solving a challenging optimization problem: it is a high-dimensional, non-convex and non-smooth minimization problem with a large number of terms. The current practice in neural network optimization is to rely on the stochastic gradient descent (SGD) algorithm...

Mô tả đầy đủ

Chi tiết về thư mục
Những tác giả chính: Berrada, L, Zisserman, A, Kumar, MP
Định dạng: Internet publication
Ngôn ngữ:English
Được phát hành: arXiv 2018

Những quyển sách tương tự