There is definitely room for improvement in the family of algorithms of stochastic gradient descent. In this episode I explain a relatively simple method that has shown to improve on the Adam optimizer. But, watch out! This approach does not generalize well.
Podden och tillhörande omslagsbild på den här sidan tillhör Francesco Gadaleta. Innehållet i podden är skapat av Francesco Gadaleta och inte av, eller tillsammans med, Poddtoppen.