常见的AI安全风险(数据投毒、后门攻击、对抗样本攻击、模子窃取攻击等) ...

打印 上一主题 下一主题

主题 867|帖子 867|积分 2601


数据投毒(Data Poisoning)

数据投毒是一种通过在 练习数据 中植入恶意样本或修改数据以诱骗机器学习模子的方法。这种攻击旨在使模子 在将来的猜测或决定中 产生错误结果。攻击者可能会植入具有误导性标签或特征的数据,以扭曲模子的学习过程,导致模子偏离真实数据的表征。数据投毒攻击可能在模子练习过程中不被察觉,但其影响可能在模子摆设和运行时显现出来。
后门攻击(Backdoor Attacks)

后门攻击是一种在模子 练习过程 中植入后门或隐藏功能的方式。这些后门可能是针对特定输入触发的,使得模子在遇到这些特定标记或输入时产生意生手为。后门攻击的目的是在模子体现正常的环境下,对特定环境下的猜测或决定进行操控,可能导致安全隐患或隐私泄露
【注】后门攻击和数据投毒攻击的异同点:


  • 相同点:

    • 都是发生在模子的练习阶段

  • 差异点:

    • 数据投毒:主要目的是使模子的泛化性能变差, 也即在测试集上的效果变差, 模子不能进行有效的学习, 甚至无法收敛。
    • 后门攻击:目的则是使模子学习到攻击者指定的内容, 其对 正常样本 仍旧具有良好的测试效果,但对于 中毒样本 则会输出攻击者预先设定的标签。

对抗样本攻击(Adversarial Examples)

对抗样本攻击是通过对输入数据进行微小但有针对性的修改,使得机器学习模子产生错误分类或错误猜测的样本。这些微小的变化对人类观察险些不可察觉,但足以使模子做堕落误的推断。对抗样本攻击是针对模子的鲁棒性和稳固性,即使在面对微小扰动时也能保持准确性。
模子窃取攻击(Model Extraction Attacks)

模子窃取攻击是一种针对机器学习模子的攻击,旨在通过观察模子的输出并利用查询功能,从中 重修或复制 原始模子。攻击者可能使用额外的查询信息来近似或重修受攻击模子,从而破坏模子拥有者的 知识产权潜在商业上风
参考资料



  • 深度学习中的后门攻击综述,杜巍, 刘功申,2022信息安全学报

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

正序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

没腿的鸟

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表