[ torch 参数更多 ]torch.optim.RMSprop¶
torch.optim.RMSprop¶
torch.optim.RMSprop(params,
lr=0.01,
alpha=0.99,
eps=1e-08,
weight_decay=0,
momentum=0,
centered=False,
maximize=False,
differentiable=False)
paddle.optimizer.RMSProp¶
paddle.optimizer.RMSProp(learning_rate,
rho=0.95,
epsilon=1e-06,
momentum=0.0,
centered=False,
parameters=None,
weight_decay=None,
grad_clip=None,
name=None)
PyTorch 相比 Paddle 支持更多其他参数,具体如下:
参数映射¶
PyTorch | PaddlePaddle | 备注 |
---|---|---|
params | parameters | 表示指定优化器需要优化的参数,仅参数名不一致。 |
lr | learning_rate | 学习率,用于参数更新的计算。PyTorch 默认为0.01 ,Paddle 无默认值,Paddle 需保持与 PyTorch 一致。 |
alpha | rho | 平滑常数。参数默认值不一致, PyTorch 默认为0.99 ,PyTorch 默认为0.95 ,Paddle 需保持与 PyTorch 一致。 |
eps | epsilon | 保持数值稳定性的短浮点类型值。参数默认值不一致, PyTorch 默认为1e-08 ,PyTorch 默认为1e-06 ,Paddle 需保持与 PyTorch 一致。 |
weight_decay | weight_decay | 表示权重衰减系数。参数默认值不一致, PyTorch 默认为0 , Paddle 默认为None ,Paddle 需保持与 PyTorch 一致。 |
momentum | momentum | 动量因子。参数完全一致。 |
centered | centered | 如果为 True,则通过梯度的估计方差,对梯度进行归一化。参数完全一致。 |
maximize | - | 根据目标最大化参数,而不是最小化。Paddle 无此参数,暂无转写方式。 |
differentiable | - | 是否应通过训练中的优化器步骤进行自动微分。Paddle 无此参数,一般对网络训练结果影响不大,可直接删除。 |
- | grad_clip | 梯度裁剪的策略。 PyTorch 无此参数,Paddle 保持默认即可。 |