摩臣资讯

Python实现RMSprop优化器

发布时间:2024-08-26 06:00:07     浏览次数:


在上一篇文章里,我们介绍了AdaGrad,引入了二阶动量来调整不同参数的学习速率,同时它的缺点就是不断地累加二阶动量导致最终学习率会接近于0导致训练提前终止,RMSProp主要针对这个问题进行了优化。AdaGrad的二阶动量计算公式为其中,为当前时刻的二阶动量,是某一时刻的梯度,表示迄今所有梯度的平方和。问题就在于这个求和上,不断地累加导致学习率为0。在AdaGrad的基础上,对二阶动量的计算进行了改进:我想有历史梯度的信息,但是我又不想让信息一直膨胀,那么只要让历史信息一直衰减就好了。

 Copyright © 2012-2018 首页-摩臣-官方注册指定站   琼ICP备xxxxxxxx号

平台注册入口