paddle.optimizer¶
paddle.optimizer 目录下包含飞桨框架支持的优化器算法相关的 API 与学习率衰减相关的 API。具体如下:
优化器算法相关 API¶
API 名称 |
API 功能 |
---|---|
|
Adadelta 优化器 |
|
Adagrad 优化器 |
|
Adam 优化器 |
|
Adamax 优化器 |
|
AdamW 优化器 |
|
ASGD 优化器 |
|
Lamb 优化器 |
|
LBFGS 优化器 |
|
Momentum 优化器 |
|
NAdam 优化器 |
|
飞桨框架优化器基类 |
|
RAdam 优化器 |
|
RMSProp 优化器 |
|
Rprop 优化器 |
|
SGD 优化器 |
学习率衰减相关 API¶
API 名称 |
API 功能 |
---|---|
|
Cosine Annealing 学习率衰减 |
|
Exponential 学习率衰减 |
|
Inverse Time 学习率衰减 |
|
学习率衰减的基类 |
|
Lambda 学习率衰减 |
|
Linear Warmup 学习率衰减 |
|
MultiStep 学习率衰减 |
|
NatualExp 学习率衰减 |
|
Norm 学习率衰减 |
|
分段设置学习率 |
|
多项式学习率衰减 |
|
loss 自适应学习率衰减 |
|
按指定间隔轮数学习率衰减 |
|
根据 lambda 函数进行学习率衰减 |
|
One Cycle 学习率衰减 |
|
Cyclic 学习率衰减 |