MambaAD 实验部分解说 4.3

一给  论坛元老 | 2024-10-8 00:15:28 | 显示全部楼层 | 阅读模式
打印 上一主题 下一主题

主题 1847|帖子 1847|积分 5541

4.3消融与分析

差别预训练主干和 Mamba 解码器深度的有用性比较



  • 比较了各种预训练的特征提取网络,重点关注流行的 ResNet 系列,如表 2 所示:


  • 在保持一致的 Mamba 解码器深度时, ResNet18 表现最差,只管它的模子巨细和盘算复杂度最小。
  • ResNet50 的参数约莫是盘算量的 10 倍,盘算量增长了 8 倍,并没有产生更好的结果。
  • 只管WideResNet在某些指标上凌驾了ResNet34,但它需要的参数和盘算成本近10倍。
    总结:
    在思量全部因素后,我们选择利用 ResNet34 作为主干特征提取器。
深度表明:


  • [2,2,2,2]对应于ResNet18深度
  • [3,4,6,3]对应于ResNet34深度
  • [2,9,2,2]是其他方法的普遍选择
    总结:
    [3,4,6,3] 深度始终优于其他配置,选择 [3,4,6,3] 配置作为 Mamba 解码器的深度

  • 我们查抄了差别 Mamba 解码器深度的影响,同时保持骨干网络不变。
差别扫描方法和方向的有用性和效率比较


在初始阶段:
比较了种差别的扫描方法和 8 方向扫描,如表3中所示。
Sweep, Scan, Zorder, Zigzag, Hilbert: 这些列代表了差别的扫描方法,用于特征提取和异常检测。每个单元格中的数字代表在该方法下的性能得分。
结果:
其他四种方法都用8方向扫描产生的结果在索引1-4,只管略低于图像级的希尔伯特扫描技术。
扫描方向的数量增长: 索引5-7,图像级指标渐渐提高,而像素级指标保持一致。
总结:
增长扫描方向的数量增强了SSM的全局建模能力,从而降低了图像级误分类的可能性。
在保持总共 8 个扫描方向的同时结合各种扫描技术会导致性能降落,如 Index 8-12
选择了希尔伯特扫描方法,更好适用性,并有助于减少误报的可能性。
差别SoTA方法的效率比较


在表5中,
在模子巨细和盘算复杂度:将我们的模子与五种 SoTA 方法举行了比较:


  • 与 UniAD 相比,MambaAD 的参数略有增长
  • 但 MambaAD 在综合指标 mAD 上的表现优于它 4.3 ↑
  • MambaAD 明显优于其他方法
DiAD比较:
MambaAD 实现了约莫 2.0 ↑ 的改进,但 DiAD 的参数和失败 1/50
差别 LSS 计划的有用性比较

LSS 模块的计划,如表4中所示。

关注三个差别的计划方向:


  • LSS 模块中 Mi 的数量
  • 并行多核卷积模块的配置
  • 深度卷积的内核巨细选择

  • 我们比较了 Mi = 1 的场景:每个 LSS 模块都包含一个 HSS 块,+ 单独的深度卷积的差别内核巨细,配置两侧是 1×1 卷积
  • 将没有残差连接的配置结果与具有相同设置的配置结果举行对比,Mi = 1
  • 最后,我们在其他一致的设置下查抄 Mi = 2 和 Mi = 3 时的结果
结果:


  • Mi = 1时,无论剩余连接的存在,结果都不如Mi = 2和Mi = 3的卷积块。
  • 仅利用Mi = 1的深度卷积块,差别内核巨细的并行深度卷积的比较表明,较小的核,如k = 1,明显降低了性能
    (k=3,5的性能比k=1,3,5的性能好,k=3,5,7的性能比k=1,3,5,7的性能好)
  • 对比实验集中在更大的卷积核上:
    没有残差连接的情况下,一些指标可能会凌驾残差连接的指标
    缺点:
    较长的训练时间 + 收敛困难
  • Mi = 2 和 Mi = 3 的配置中:


    • 利用 1x1 卷积增强的深度卷积块表现出卓越的性能。



    • k = 5 和 k = 7 的内核更适合提取局部特征并建立局部信息关联。

总结



  • 选择了很多Mi = 2和Mi = 3的HSS块
  • 我们利用核巨细为k = 5和k = 7的并行深度卷积块
  • 在前后由1 × 1卷积增补

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

一给

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表