[torch 参数更多 ]torch.nn.LayerNorm¶
torch.nn.LayerNorm¶
torch.nn.LayerNorm(normalized_shape,
eps=1e-05,
elementwise_affine=True,
device=None,
dtype=None)
paddle.nn.LayerNorm¶
paddle.nn.LayerNorm(normalized_shape,
epsilon=1e-05,
weight_attr=None,
bias_attr=None,
name=None)
两者功能一致但参数不一致,torch 参数更多,具体如下:
参数映射¶
| PyTorch | PaddlePaddle | 备注 | | ————- | ———— | —————————————————— | | elementwise_affine | - | 是否进行仿射变换,Paddle 无此参数,需要转写。 | | device | - | 设备类型,Paddle 无此参数,一般对网络训练结果影响不大,可直接删除。 | | dtype | - | 参数类型,Paddle 无此参数,一般对网络训练结果影响不大,可直接删除。 | | eps | epsilon | 为了数值稳定加在分母上的值。 | | - | weight_attr | 指定权重参数属性的对象。如果为 False, 则表示每个通道的伸缩固定为 1,不可改变。默认值为 None,表示使用默认的权重参数属性。 | | - | bias_attr | 指定偏置参数属性的对象。如果为 False, 则表示每一个通道的偏移固定为 0,不可改变。默认值为 None,表示使用默认的偏置参数属性。 |
转写示例¶
elementwise_affine:是否进行仿射变换¶
# 当 PyTorch 的 elementwise_affine 为`False`,表示 weight 和 bias 不进行更新,torch 写法
torch.nn.LayerNorm(normalized_shape=(256, 256), eps=1e-05, elementwise_affine=False)
# paddle 写法
paddle.nn.GroupNorm(normalized_shape=(256, 256), epsilon=1e-05, weight_attr=False, bias_attr=False)
# 当 PyTorch 的 elementwise_affine 为`True`,torch 写法
torch.nn.LayerNorm(normalized_shape=(256, 256), eps=1e-05, elementwise_affine=True)
# paddle 写法
paddle.nn.LayerNorm(normalized_shape=(256, 256), epsilon=1e-05)