PVT:Pyramid Vision Transformer 能接受高分图像的Transformer骨干网
参考资料
https://blog.csdn.net/weixin_44966641/article/details/118733341 http://jalammar.github.io/illustrated-transformer/ https://www.cnblogs.com/jins-note/p/14815511.html
Transformer结构
Encoder-Decoder
Transformer结构可以表示为Encoder和Decoder两个部分。Encoder和Decoder主要由Self-Attention和Feed-Forward Network两个组件构成,Self-Attention由Scaled Dot-Product Attention和Multi-Head Attention两个组件构成。 Scaled Dot-Product Attention公式:
Multi
PVT:Pyramid Vision Transformer 能接受高分图像的Transformer骨干网最先出现在Python成神之路。
共有 0 条评论