PReLU¶
PReLU激活层(PReLU Activation Operator)。计算公式如下:
如果使用近似计算:
\[PReLU(x) = max(0, x) + weight * min(0, x)\]
其中,\(x\) 为输入的 Tensor
参数¶
形状:¶
input: 任意形状的Tensor,默认数据类型为float32。
output: 和input具有相同形状的Tensor。
代码示例¶
import paddle
import numpy as np
paddle.set_default_dtype("float64")
data = np.array([[[[-2.0, 3.0, -4.0, 5.0],
[ 3.0, -4.0, 5.0, -6.0],
[-7.0, -8.0, 8.0, 9.0]],
[[ 1.0, -2.0, -3.0, 4.0],
[-5.0, 6.0, 7.0, -8.0],
[ 6.0, 7.0, 8.0, 9.0]]]], 'float64')
x = paddle.to_tensor(data)
m = paddle.nn.PReLU(1, 0.25)
out = m(x)
# [[[[-0.5 , 3. , -1. , 5. ],
# [ 3. , -1. , 5. , -1.5 ],
# [-1.75, -2. , 8. , 9. ]],
# [[ 1. , -0.5 , -0.75, 4. ],
# [-1.25, 6. , 7. , -2. ],
# [ 6. , 7. , 8. , 9. ]]]]