数学模型

Wang Haihua

🍈 🍉🍊 🍋 🍌


循环神经网络

前馈神经网络(如MLPs和CNNs)功能强大,但它们不能处理“顺序”数据换句话说,他们不具备之前输入的“记忆”例如,考虑翻译语料库的情况。 你需要考虑“上下文”来猜测下一个出现的单词。

循环神经网络RNN适合处理顺序格式数据,因为它们有循环 结构——换句话说,它们保留序列中较早输入的内存 。但是为了减少参数的数量,不同时间步长的每一层都使用相同的参数 。

Vanilla RNN

LSTM

LSTM (long -短期记忆)是一种改进的结构,用于解决长期依赖问题LSTM网络是一个循环神经网络,它用LSTM细胞块来代替我们的标准神经网络层。这些单元格有不同的组成部分,称为输入门、遗忘门和输出门——这些将在稍后详细解释。以下是LSTM单元格的图形表示:

$$ \begin{gathered} f_{t}=\sigma\left(W_{f h} \cdot h^{t-1}+W_{f x} \cdot x^{t}+b_{f}\right) \\ i_{t}=\sigma\left(W_{i h} \cdot h^{t-1}+W_{i x} \cdot x^{t}+b_{i}\right) \\ \tilde{C}_{t}=\tanh \left(W_{C h} \cdot h^{t-1}+W_{C x} \cdot x^{t}+b_{C}\right) \\ C_{t}=f_{t} * C_{t-1}+i_{t} * \tilde{C}_{t} \\ o_{t}=\sigma\left(W_{o h} \cdot h^{t-1}+W_{o x} \cdot x^{t}+b_{o}\right) \\ h_{t}=o_{t} * \tanh \left(C_{t}\right) \end{gathered} $$