Training neural networks for and by interpolation
In modern supervised learning, many deep neural networks are able to interpolate the data: the empirical loss can be driven to near zero on all samples simultaneously. In this work, we explicitly exploit this interpolation property for the design of a new optimization algorithm for deep learning, wh...
Những tác giả chính: | Berrada, L, Zisserman, A, Kumar, MP |
---|---|
Định dạng: | Conference item |
Ngôn ngữ: | English |
Được phát hành: |
Journal of Machine Learning Research
2020
|
Những quyển sách tương tự
-
Deep Frank-Wolfe for neural network optimization
Bằng: Berrada, L, et al.
Được phát hành: (2018) -
Deep Frank-Wolfe for neural network optimization
Bằng: Berrada, L, et al.
Được phát hành: (2019) -
Smooth loss functions for deep top-k classification
Bằng: Berrada, L, et al.
Được phát hành: (2018) -
Smooth loss functions for deep top-k classification
Bằng: Berrada, L, et al.
Được phát hành: (2018) -
Trusting SVM for piecewise linear CNNs
Bằng: Berrada, L, et al.
Được phát hành: (2016)