[ 仅 paddle 参数更多 ]torch.optim.LBFGS¶
torch.optim.LBFGS¶
torch.optim.LBFGS(params,
lr=1,
max_iter=20,
max_eval=None,
tolerance_grad=1e-07,
tolerance_change=1e-09,
history_size=100,
line_search_fn=None)
paddle.optimizer.LBFGS¶
paddle.optimizer.LBFGS(learning_rate=1.0,
max_iter=20,
max_eval=None,
tolerance_grad=1e-07,
tolerance_change=1e-09,
history_size=100,
line_search_fn=None,
parameters=None,
weight_decay=None,
grad_clip=None,
name=None)
其中 Paddle 相比 PyTorch 支持更多其他参数,具体如下:
参数映射¶
PyTorch | PaddlePaddle | 备注 |
---|---|---|
params | parameters | 表示指定优化器需要优化的参数,仅参数名不一致。 |
lr | learning_rate | 学习率,用于参数更新的计算。仅参数名不一致。 |
max_iter | max_iter | 每个优化单步的最大迭代次数。参数完全一致。 |
max_eval | max_eval | 每次优化单步中函数计算的最大数量。参数完全一致。 |
tolerance_grad | tolerance_grad | 当梯度的范数小于该值时,终止迭代。参数完全一致。 |
tolerance_change | tolerance_change | 当函数值/x 值/其他参数 两次迭代的改变量小于该值时,终止迭代。参数完全一致。 |
history_size | history_size | 指定储存的向量对{si,yi}数量。参数完全一致。 |
line_search_fn | line_search_fn | 指定要使用的线搜索方法。参数完全一致。 |
- | weight_decay | 表示权重衰减系数。PyTorch 无此参数,Paddle 保持默认即可。 |
- | grad_clip | 梯度裁剪的策略。 PyTorch 无此参数,Paddle 保持默认即可。 |