首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
SAAS
ToB门户
了解全球最新的ToB事件
论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
微博
Follow
记录
Doing
博客
Blog
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
排行榜
Ranklist
相册
Album
应用中心
qidao123.com技术社区-IT企服评测·应用市场
»
论坛
›
数据库
›
SQL-Server
›
ResNet改进(12):添加 NAMAttention 轻量级注意力机制 ...
返回列表
发新帖
ResNet改进(12):添加 NAMAttention 轻量级注意力机制
[复制链接]
发表于
6 小时前
|
显示全部楼层
|
阅读模式
1.NAMAttention 轻量级注意力机制
NAMAttention (Normalization-based Attention Module) 是一种基于归一化的轻量级注意力机制,它通过利用通道和空间维度上的归一化权重来加强特性表现。与传统的注意力机制如SE、CBAM等相比,NAMAttention具有更简朴的布局和更少的盘算开销。
NAMAttention的核心头脑是通过归一化利用来获取特性图的告急性权重,重要包罗两个关键组件:
通道注意力子模块
:利用批归一化(BN)的缩放因子来权衡通道告急性
空间注意力子模块
:利用组归一化(GN)的缩放因子来权衡空间位置告急性
这种计划克制了传统注意力机制中复杂的全毗连层或大卷积核盘算,使得NAMAttention更加高效。
<hr> NAMAttention 数学原理
3.1 通道注意力
对于输入特性图 X ∈ ℝ^{C×H×W},通道注意力权重盘算如下:
应用批归一化:X_BN = BN(X)
盘算通道权重:W_c = σ(γ_BN *
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
继续阅读请点击广告
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
×
回复
使用道具
举报
返回列表
刘俊凯
+ 我要发帖
×
登录参与点评抽奖,加入IT实名职场社区
去登录
微信订阅号
微信服务号
微信客服(加群)
H5
小程序
快速回复
返回顶部
返回列表