YoloV8改进策略:BAM注意力:BAM详解以及代码注释|CBAM姊妹篇
2024-01-03 11:36:29
论文
https://arxiv.org/pdf/1807.06514.pdf
BAM注意力
ChannelGate模块
ChannelGate模块,首先使用自适应平均池化将输入特征图的空间维度压缩到1x1,然后通过一个多层感知机(MLP)来学习通道之间的依赖关系。MLP包含两个线性层,中间使用ReLU激活函数。学习到的权重向量再经过批量归一化后,被重新整形为与输入特征图相同的空间维度(通过广播机制),以便后续与输入特征图进行逐通道相乘或其他操作。这种通道注意力机制可以让模型更加关注重要的通道,并抑制不重要的通道。注意,这里的代码只计算了权重向量,并没有显示地与输入特征图进行相乘操作,这通常是在更大的网络结构中完成的。
SpatialGate模块
SpatialGate模块,首先通过第一个卷积层对输入特征图进行压缩。然后通过一个包含两个全连接层的序列来学习空间依赖关系,中间使用了批标准化和ReLU激活函数。最后通过第三个卷积层和批标准化层得到权重向量,并将其形状扩展为与输入特征图相同,以便后续与输入特征图进行逐元素相乘或其他操作。这种空间注意力机制可以让模型更加关注重要的空间位置,并抑制不重要的区域。
文章来源:https://blog.csdn.net/m0_47867638/article/details/135358684
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:veading@qq.com进行投诉反馈,一经查实,立即删除!
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:veading@qq.com进行投诉反馈,一经查实,立即删除!