PVT:Pyramid Vision Transformer 能接受高分图像的Transformer骨干网

参考资料
https://blog.csdn.net/weixin_44966641/article/details/118733341 http://jalammar.github.io/illustrated-transformer/ https://www.cnblogs.com/jins-note/p/14815511.html
Transformer结构
Encoder-Decoder
Transformer结构可以表示为Encoder和Decoder两个部分。Encoder和Decoder主要由Self-Attention和Feed-Forward Network两个组件构成,Self-Attention由Scaled Dot-Product Attention和Multi-Head Attention两个组件构成。 Scaled Dot-Product Attention公式:
Multi

PVT:Pyramid Vision Transformer 能接受高分图像的Transformer骨干网最先出现在Python成神之路

版权声明:
作者:玉兰
链接:https://www.techfm.club/p/4011.html
来源:TechFM
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>