行业资讯
Pytorch实战系列8——常用优化器optimizer
  1. torch.optim.SGD 随机梯度下降算法(动量momentum可选)

  2. torch.optim.ASGD 平均随机梯度下降算法

  3. torch.optim.Rprop 弹性反向传播 ---适用于full-batch,不适用于mini-batch

  4. <推荐> torch.optim.Adagrad 自适应优化方法 ---自适应的为各个参数分配不同的学习率,学习率的变化,会受到梯度的大小和迭代次数的影响。梯度越大,学习率越小;梯度越小,学习率越大。缺点是训练后期,学习率过小

  5. <推荐> torch.optim.Adadelta ---Adadelta是Adagrad的改进,避免在训练后期,学习率过小

  6. <推荐> torch.optim.RMSprop

  7. torch.optim.Adam(AMSGrad) ---Adam是一种自适应学习率的优化方法,Adam利用梯度的一阶矩估计和二阶矩估计动态的调整学习率通过添加额外的约束,使学习率始终为正值

  8. torch.optim.Adamax ---Adamax是对Adam增加了一个学习率上限的概念

  9. torch.optim.SparseAdam

  10. torch.optim.LBFGS

是一个实现了各种优化算法的库。

为了使用 torch.optim,你需要构建一个optimizer对象。这个对象能够保持当前参数状态并基于计算得到的梯度进行参数更新。



的参数将会使用1e-2的学习率,的参数将会使用1e-3的学习率,并且0.9的momentum将会被用于所有的参数。




将每一个参数的每一次迭代的梯度取平方累加再开方,用基础学习率除以这个数,来做学习率的动态更新。

为了缓解Adgrad学习率衰减过快,RMSprop对累计的信息进行衰减

Adadelta是对Adagrad的扩展,Adagrad不需要设置初始学习速率,而是利用之前的步长估计下一步的步长。

模拟物理动量的概念,积累之前的动量来替代真正的梯度。增加了同向的更新,减少了异向的更新。

再之前加速的梯度方向进行一个大的跳跃(棕色向量),计算梯度然后进行校正(绿色梯向量)




tips: optimizer.zero_grad() 每次做反向传播之前都要归零梯度,不然梯度会累加在一起,造成结果不收敛。

平台注册入口