长度式记忆网络LSTM入门

LSTM核心

1.单元状态(LSTM独有)

联系三个门的结构,为数据做更新。
1.与遗忘门结构相乘
2.与输入门结果相加
3.经过sigmoid函数计算
4.与输出门结果相乘
长度式记忆网络LSTM入门

2.遗忘门:决定信息是否保存

方法: 通过sigmoid函数(上一个隐状态信息,当前输入信息)计算压缩为[0,1]的值,决定是否保留。近0丢弃,近1保留
长度式记忆网络LSTM入门

3.输入门:更新单元状态

  • 1.通过sigmoid函数(上一个隐状态信息,当前输入信息)计算为[0,1]的值决定更新那些值,近0不主要,近1重要
  • 2.通过tanh函数(上一个隐状态信息,当前输入信息),计算出[-1,1]的值辅助调节
  • 3.将sigmoid函数和tanh相乘,sigmoid输出将决定保留tanh输出的重要信息
    长度式记忆网络LSTM入门

4.输出门:决定下一个隐状态

  • 1.通过sigmoid函数(上一个隐状态信息,当前输入信息)产生[0,1]结果
  • 2.经过tanh(单元状态)的结果和1的结果相乘
    长度式记忆网络LSTM入门

二.LSTM全流程(GIF)

长度式记忆网络LSTM入门

上一篇:PyTorch LSTM,batch_first=True对初始化h0和c0的影响


下一篇:NLP领域论文笔记【研一上】01