P40Recurrent Neural Network

2023-12-18 18:50:02
  • 将之前的输出存在memory 中,在下一轮输入网络中在这里插入图片描述# 将之前的输出存在memory 中,在下一轮输入网络中

the same network is used again and again

在这里插入图片描述

deep RNN

在这里插入图片描述

rnn 的变形

    1. 隐藏层的输出作为下一个时间点的输入
    1. 上一个时间点的输出作为下一个时间点的输入
  • 传说后者效果更好
    在这里插入图片描述

双向RNN

正向和反向的输出结果,都扔到输出层
好处: 比单向的看的范围看的更广
在这里插入图片描述

LSTM LONG SHORT-TERM Memory

在这里插入图片描述

在这里插入图片描述
input gate 控制输入是否能够传递进去,当 input gate 为0时, f*g 为零,没有能够输入进去
forget gate 是相反的,为0时代表遗忘,为1时代表能够通过

  • 数据一直累计记录在 c’ memory 中
  • output gate=1 时,存在memory 中的值会被输出

LSTM example

输入:3维
输出:1维
在这里插入图片描述
在这里插入图片描述
4个input 和1个output
输入*weight = 各个gate输入值

在这里插入图片描述
在这里插入图片描述
c 代表memory 中的值

终极形态:
在这里插入图片描述

输入同时考虑 c h x

在这里插入图片描述
在这里插入图片描述

文章来源:https://blog.csdn.net/weixin_39107270/article/details/135065605
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。