PReLU¶
PReLU激活层(PReLU Activation Operator)。计算公式如下:
如果使用近似计算:
         \[PReLU(x) = max(0, x) + weight * min(0, x)\]
       
 
       其中,\(x\) 为输入的 Tensor
参数¶
形状:¶
input: 任意形状的Tensor,默认数据类型为float32。
output: 和input具有相同形状的Tensor。
代码示例¶
import paddle
import numpy as np
paddle.set_default_dtype("float64")
data = np.array([[[[-2.0,  3.0, -4.0,  5.0],
                   [ 3.0, -4.0,  5.0, -6.0],
                   [-7.0, -8.0,  8.0,  9.0]],
                  [[ 1.0, -2.0, -3.0,  4.0],
                   [-5.0,  6.0,  7.0, -8.0],
                   [ 6.0,  7.0,  8.0,  9.0]]]], 'float64')
x = paddle.to_tensor(data)
m = paddle.nn.PReLU(1, 0.25)
out = m(x)
# [[[[-0.5 ,  3.  , -1.  ,  5.  ],
#    [ 3.  , -1.  ,  5.  , -1.5 ],
#    [-1.75, -2.  ,  8.  ,  9.  ]],
#   [[ 1.  , -0.5 , -0.75,  4.  ],
#    [-1.25,  6.  ,  7.  , -2.  ],
#    [ 6.  ,  7.  ,  8.  ,  9.  ]]]]
         