【论文阅读】Adversarial Patch Attacks on Monocular Depth Estimation Ne ...

打印 上一主题 下一主题

主题 964|帖子 964|积分 2894

一、背景

单目深度估计是CV领域一个比力热门的研究方向,但是现有的方法过度依赖于非深度特征,使得单目深度估计的模型容易受到外界的攻击,针对这一问题该论文设计了一种攻击贴图的方法,用于攻击深度学习实现的单目深度估计模型。通过对特定地区增加扰动,来使得攻击位置附近的深度输出趋近于我们预设的值。
二、攻击方法


和现有的针对CNN的攻击方法很像,这篇文章的攻击方法使用的扰动+贴图的方法,通过在图像上叠加一个贴图,来最大化攻击地区的深度偏差,为了让攻击可以或许部署在实际中,作者还将成像的过程纳入到了丧失函数的构建中。
攻击目标

总的来说,该论文攻击的目标就是让深度估计尽大概偏离真实值。这里作者规定I为模型的输入图像,F为模型的推理,得到的深度为D。原始的贴图被记为P,通过Tθ的调解之后举行叠加。根据这个界说,最主要的丧失函数被界说为:

此中dt表示的是预设的深度,背面的一半表示的是模型在叠加扰动之后的输出。可以看出这部分丧失函数的目标就是让模型输出的深度尽大概靠近我们设置的深度值dt。模型调解Rθ地区内的像素的扰动,让深度的输出尽大概靠近dt。在调解的过程中,扰动一共有四个参数可以举行调解:随机亮度变化(random brightness shift),对比度(contrast shift),噪声(addition of noise)以及尺度(scaling),通过在小范围内举行微调,实现扰动的内容上的变化。之后再对扰动举行外形上的改变,通过透视变换对原本的矩形地区举行调解:

丧失函数

整个攻击的丧失函数一共包括三部分,第一部分是上一节说的深度丧失,即让深度估计值尽大概靠近预设的值。

对于使用多模型举行攻击时,我们也可以尝试多模型下的深度丧失,也就是将上面的公式扩展到多个模型中:

为了思量到模型部署在实际中的需求,作者引入了NPS丧失来调解攻击图像的色域,让打印出来的图像的色彩尽大概靠近原始值:

最后作者加了一项平滑束缚,让攻击图像尽大概平滑,或者说相邻元素之间的梯度尽大概小:

终极三项丧失加权叠加,就能构成终极的丧失函数:


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

用多少眼泪才能让你相信

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表