LSTMCell¶
- class paddle.nn. LSTMCell ( input_size, hidden_size, weight_ih_attr=None, weight_hh_attr=None, bias_ih_attr=None, bias_hh_attr=None, proj_size=0, name=None ) [源代码] ¶
长短期记忆网络单元
长短期记忆网络单元(LSTMCell),根据当前时刻输入 x(t)和上一时刻状态 h(t-1)计算当前时刻输出 y(t)并更新状态 h(t)。
状态更新公式如下:
若设置了 proj_size,隐状态 \(h_{t}\) 将会被映射到指定维度:
其中:
\(\sigma\) :sigmoid 激活函数。
详情请参考论文:An Empirical Exploration of Recurrent Network Architectures 。
参数¶
input_size (int) - 输入的大小。
hidden_size (int) - 隐藏状态大小。
weight_ih_attr (ParamAttr,可选) - weight_ih 的参数。默认为 None。
weight_hh_attr (ParamAttr,可选) - weight_hh 的参数。默认为 None。
bias_ih_attr (ParamAttr,可选) - bias_ih 的参数。默认为 None。
bias_hh_attr (ParamAttr,可选) - bias_hh 的参数。默认为 None。
proj_size (int,可选) - 若大于 0,则会使用投影层将隐状态隐射到指定大小,其值必须小于 hidden_size 。默认为 0。
name (str,可选) - 具体用法请参见 Name,一般无需设置,默认值为 None。
变量¶
weight_ih (Parameter) - input 到 hidden 的变换矩阵的权重。形状为(4 * hidden_size, input_size)。对应公式中的 \(W_{ii}, W_{if}, W_{ig}, W_{io}\)。
weight_hh (Parameter) - hidden 到 hidden 的变换矩阵的权重。形状为(4 * hidden_size, hidden_size)。对应公式中的 \(W_{hi}, W_{hf}, W_{hg}, W_{ho}\)。
bias_ih (Parameter) - input 到 hidden 的变换矩阵的偏置。形状为(4 * hidden_size, )。对应公式中的 \(b_{ii}, b_{if}, b_{ig}, b_{io}\)。
bias_hh (Parameter) - hidden 到 hidden 的变换矩阵的偏置。形状为(4 * hidden_size, )。对应公式中的 \(b_{hi}, b_{hf}, b_{hg}, b_{ho}\)。
输入¶
inputs (Tensor) - 输入。形状为[batch_size, input_size],对应公式中的 \(x_t\)。
states (tuple,可选) - 一个包含两个 Tensor 的元组,每个 Tensor 的形状都为[batch_size, hidden_size],上一轮的隐藏状态。对应公式中的 \(h_{t-1},c_{t-1}\)。当 state 为 None 的时候,初始状态为全 0 矩阵。默认为 None。
输出¶
outputs (Tensor) - 输出。形状为[batch_size, hidden_size],对应公式中的 \(h_{t}\), 当设置了 proj_size 时,输出形状会被映射为[batch_size, proj_size]。
new_states (tuple) - 一个包含两个 Tensor 的元组,每个 Tensor 的形状都为[batch_size, hidden_size],新一轮的隐藏状态。形状为[batch_size, hidden_size],对应公式中的 \(h_{t},c_{t}\)。当设置了 proj_size 时,\(h_{t}\) 会被映射为[batch_size, proj_size]。
注解
所有的变换矩阵的权重和偏置都默认初始化为 Uniform(-std, std),其中 std = \(\frac{1}{\sqrt{hidden\_size}}\)。对于参数初始化,详情请参考 ParamAttr。
代码示例¶
>>> import paddle
>>> x = paddle.randn((4, 16))
>>> prev_h = paddle.randn((4, 32))
>>> prev_c = paddle.randn((4, 32))
>>> cell = paddle.nn.LSTMCell(16, 32)
>>> y, (h, c) = cell(x, (prev_h, prev_c))
>>> print(y.shape)
[4, 32]
>>> print(h.shape)
[4, 32]
>>> print(c.shape)
[4, 32]