ViT (Vision Transformer) —-LSTM网络

LSTM是对RNN的改进,主要改进RNN的梯度消失的问题即长依赖问题,那么具体如何解决的呢?

由上图可以发现增加了三个门,那么这三个门是如何解决长依赖问题的呢?LSTM最大的设计就是传输带C,就是通过传输带的设计避免梯度的消失,lstm存在很多门,可以让信息选择性通过
遗忘门

举个例子

得到遗忘门的输出f后,在和传输带的c向量相乘

那么遗忘门的功能主要体现在哪里呢?通过例子可以看出,遗忘门的输出f是0-1的概率值,乘上传输带c就可以控制传输带信息的流入量,该f值的获取荣光如下:

由此可以发现,遗忘门的输入是输入x_t和上一个状态的输出h_t-1的concat组成的向量,然后和矩阵W_f相乘,在通过sigmoid激活函数得到输出f_t,其中矩阵W是通过数据训练学习而来
输入门

计算i_t的方式和遗忘门输出的计算差不多,都是把上一状态的输出h_t-1和输入x_t做concat connection,然后和矩阵W_i相乘,在通过激活函数sigmoid激活函数获取到输出i_t,此时输出的范围为0-1的概率值

ViT (Vision Transformer) —-LSTM网络最先出现在Python成神之路

版权声明:
作者:ht
链接:https://www.techfm.club/p/10475.html
来源:TechFM
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>