[ 输入参数用法不一致 ]torch.nn.BatchNorm1d¶
torch.nn.BatchNorm1d¶
torch.nn.BatchNorm1d(num_features,
eps=1e-05,
momentum=0.1,
affine=True,
track_running_stats=True)
paddle.nn.BatchNorm1D¶
paddle.nn.BatchNorm1D(num_features,
momentum=0.9,
epsilon=1e-05,
weight_attr=None,
bias_attr=None,
data_format='NCL',
use_global_stats=True,
name=None)
两者功能一致但参数不一致,部分参数名不同,具体如下:
参数映射¶
PyTorch | PaddlePaddle | 备注 |
---|---|---|
num_features | num_features | 表示输入 Tensor 通道数。 |
eps | epsilon | 为了数值稳定加在分母上的值,仅参数名不一致。 |
momentum | momentum | 表示归一化函数中的超参数, PyTorch 和 Paddle 公式实现细节不一致,两者正好是相反的,需要转写。 |
- | weight_attr | 指定权重参数属性的对象。如果为 False, 则表示每个通道的伸缩固定为 1,不可改变。默认值为 None,表示使用默认的权重参数属性。 |
- | bias_attr | 指定偏置参数属性的对象。如果为 False, 则表示每一个通道的偏移固定为 0,不可改变。默认值为 None,表示使用默认的偏置参数属性。 |
- | data_format | 指定输入数据格式,PyTorch 无此参数,Paddle 保持默认即可。 |
affine | - | 是否进行反射变换, Paddle 无此参数,需要转写。 |
track_running_stats | use_global_stats | 指示是否使用全局均值和方差,PyTorch 设置为 True,Paddle 需设置为 False;PyTorch 设置为 None,Paddle 需设置为 True;PyTorch 设置为 False,Paddle 需设置为 True,需要转写。 |
转写示例¶
affine:是否进行反射变换¶
affine=False 时,表示不更新:
# PyTorch 写法
m = torch.nn.BatchNorm1D(24, affine=False)
# Paddle 写法
m = paddle.nn.BatchNorm1D(24, weight_attr=False, bias_attr=False)
affine=True 时,表示更新:
# PyTorch 写法
m = torch.nn.BatchNorm1D(24)
# Paddle 写法
m = paddle.nn.BatchNorm1D(24)
momentum:¶
# PyTorch 写法
m = torch.nn.BatchNorm1D(24, momentum=0.2)
# Paddle 写法
m = paddle.nn.BatchNorm1D(24, momentum=0.8)
track_running_stats:指示是否使用全局均值和方差¶
track_running_stats=None 时:
# PyTorch 写法
m = torch.nn.BatchNorm1D(24, track_running_stats=None)
# Paddle 写法
m = paddle.nn.BatchNorm1D(24, use_global_stats=True)
track_running_stats=True 时:
# PyTorch 写法
m = torch.nn.BatchNorm1D(24, track_running_stats=True)
# Paddle 写法
m = paddle.nn.BatchNorm1D(24, use_global_stats=False)
track_running_stats=False 时:
# PyTorch 写法
m = torch.nn.BatchNorm1D(24, track_running_stats=False)
# Paddle 写法
m = paddle.nn.BatchNorm1D(24, use_global_stats=True)