ToB企服应用市场:ToB评测及商务社交产业平台

标题: AI安全入门-人工智能数据与模子安全 [打印本页]

作者: 莱莱    时间: 2024-8-20 15:54
标题: AI安全入门-人工智能数据与模子安全
参考 人工智能数据与模子安全 from 复旦大学视觉与学习实行室

  
0. 计算机安全学术着名公众号


1. 概述

数据安全


模子安全


3. 人工智能安全基础

当一个安全问题发生时,我们起首要弄清晰是*“谁攻击了谁”*。这就涉及到人工智能安全问题中三类紧张的长处相关者:攻击者、受害者和防御者。
3.1 基本概念

攻击者

攻击者是指对数据、模子及其相关过程,包括数据网络、模子训练和模子部署等,发起恶意监听、窃取、干扰、乃至破坏行为的个人或构造。
注意详细发动攻击的是一个步伐,但是会有人类或者构造来利用,有一种刺人而杀之,曰“非我者,兵也。”的感觉。
攻击方法

攻击方法是指攻击者用来对数据、模子及其相关过程,包括数据网络、模子训练和模子部署等,发起攻击的详细本领。
受害者

受害者是指由于受到数据或模子攻击而长处受到损害的数据或模子全部者、使用者或其他长处相关者。
与受害者密切相关的两个概念是:受害数据(victim data)和受害模子(victim model);
受害数据

受害数据是指受到恶意攻击的训练或测试数据。
受害模子

受害模子是指受到恶意攻击的人工智能模子。
防御者

防御者是指通过肯定的防御措施保护数据或者模子免受潜伏恶意攻击的个人或构造。
防御方法

防御方法是指防御者用来对数据、模子及其相关过程,包括数据网络、模子训练和模子部署等举行保护,使其免受潜伏攻击的详细本领。
下面定义攻防发生的“战场”,即威胁模子。
威胁模子

威胁模子定义了系统的运行情况、安全需求、所面临的安全风险、潜伏攻击者、攻击目标和攻击方法、大概的防御策略、防御者可利用的资源等攻防相关的关键设置信息。
简而言之,威胁模子(threat model)是对真实场景的一种模仿,旨在清晰准确的规定攻击者与防御者之间边界,以便公平的开展攻防研究。数据与模子安全研究中常接纳的威胁模子类型:白盒威胁模子、灰盒威胁模子和黑盒威胁模子。
目标数据

目标数据是指攻击者在举行攻击时的数据对象。
替代数据

替代数据是指攻击者自己网络的、可以用来替代目标数据的傀儡数据。
替代模子

替代模子是指攻击者自己拥有的、可以用来替代目标模子的攻傀儡模子。
3.2 威胁模子

3.2.1 白盒威胁模子

白盒威胁模子紧张是对攻击目标对象来说的,是指攻击者具有对目标数据或目标模子的完全访问权限。只要切实可行,攻击者可以利用任何关于目标数据或目标模子的信息发起攻击。需要注意的是,“白盒”一样平常指的是访问权限,并不意味着攻击者就可以随意修改目标数据或目标模子。否则,攻击者可以任意破坏数据和模子,而不再需要计划特殊的攻击方法。
3.2.2 黑盒威胁模子

与白盒威胁模子不同,黑盒威胁模子假设攻击者只能通过API(application programming interface)对模子发起查询哀求并获得返回结果,而无法获取训练数据、训练方法、模子参数等其他信息。
3.2.3 灰盒威胁模子

灰盒威胁模子介于白盒威胁模子和黑盒威胁模子之间,假设攻击者可以知道攻击目标的部门信息,如任务类型、数据类型、模子结构等,但是无法获得详细的训练数据或模子参数。
3.3 攻击类型

在介绍详细的攻击类型之前,我们需要深入理解机器学习模子本身的特点,由于模子特性决定了它大概存在的弱点和所面临的攻击。这里我们以深度学习模子(即深度神经网络)为例,介绍对机器学习模子不同层次的理解。

3.3.1. 攻击目标

3.3.1.1. 破坏型

破坏型攻击的目标只有一个,那就是“破坏”。破坏型攻击可以破坏机器学习的任何一个关键环节,包括数据网络过程、训练数据、模子的训练过程、训练得到的模子、模子部署、模子测试、测试数据等等。任何攻击都有肯定的动机,对破坏型攻击来说,其攻击动机包括:破坏竞争对手的人工智能系统、以破坏来打单受害用户、偶尔间使用了具有破坏性的样本等等。
3.3.1.2. 利用型

利用型攻击的目标是控制数据或模子以完成攻击者特定的目标。相比破坏型攻击,此类攻击要求攻击者完成对数据或模子更精细化的控制,攻击难度更大。
3.3.1.3. 窃取型

窃取型攻击的目标是通过窥伺数据、模子或者模子的训练过程,以完成对训练数据、训练得到的模子、训练算法等关键信息的窃取。
3.3.2. 攻击对象

机器学习大致遵照“数据网络-模子训练-模子部署”三个步骤。
3.3.2.1. 数据

训练数据和测试数据是两类紧张数据,训练数据服务于模子训练,测试数据服务于模子评估。
数据投毒攻击通过污染网络到的训练数据以达到破坏数据、阻碍模子训练的目标。数据投毒攻击可以通过不同的方式举行,比如攻击数据的网络过程、标注过程、或者直接污染网络到的数据。数据窃取通过对模子举行逆向工程,从中恢复出原始训练数据。
3.3.2.2. 模子

针对模子的攻击紧张包括对抗攻击、后门攻击和模子窃取三大类,这三类攻击分别代表了破坏型、利用性和窃取型这三类攻击目标。
对抗攻击的思想是让模子在部署使用阶段犯错,其通过向测试样本中添加微小的对抗噪声来让模子做出错误的预测结果。有意思的是,这种通过修改输入样原来干扰模子预测的攻击方式并不特殊,反而会引发两个疑问。
(1) 既然攻击者有修改测试数据的权限,那么他/她就可以随意修改数据,那就不会仅限于微小修改。
(2) 攻击者可以修改测试数据这一假设会面临“动机”方面的挑战,即为什么模子的使用者作为受益者一方要让模子犯错呢?
3.3.3. 攻击机遇

根据攻击机遇的不同,现有攻击约莫可以分为训练阶段攻击和测试阶段攻击。
3.3.3.1. 训练阶段

与模子训练精密相关的是训练数据、训练算法、超参数和模子,这些元素都有被攻击的大概。在训练阶段,攻击者可以对数据举行投毒攻击,通过污染训练数据来破坏模子的正常训练。例如对训练数据举行增、删、改、换等不同情势的改动,以此来低沉最终训练得到的模子的性能或者其他属性(如鲁棒性、隐私保护性等)。
目前针对训练算法和超参数的攻击并不多见,但是可以想象的是模子训练对这些参数,比如学习率、初始化参数、训练周期,是很敏感的。但是对训练超参的攻击需要很强的威胁模子,比如攻击者可以控制训练过程或者恶意修改训练代码。一个有意思的观察是,部门研究工作开源的代码存在复现难的问题,需要对训练算法和超参数举行进一步调优才能达到论文中报告的结果。对于轻量级的训练来说这大概影响不大,但是对于大规模训练算法来说,这就会带来大量的训练开销,大大增加研究费用。如果在开源代码中故意对超参数举行隐蔽或者过度复杂化以增加复现难度,就可以被视为是一种训练超参攻击。这个攻击很有趣,很像当年我写的代码里面有死循环,被当成病毒干掉了;
3.3.3.2. 测试阶段

相比训练阶段,岂论从数据还是模子的角度来说,测试阶段的攻击更多样化。其中很大一部门原因是测试阶段模仿的是模子的真实使用情况,此时模子会以不同的情势接收外部哀求,会面临多种多样的攻击。在数据方面,可以以模子为媒介对训练数据举行窃取和隐私攻击,还可以借助模子举行数据篡改和伪造。 在模子方面,可以通过修改测试样本对模子发起对抗攻击,或者通过查询API对模子举行窃取攻击。

本文只做扼要记录,详细信息还是细细研究参考书人工智能数据与模子安全

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。




欢迎光临 ToB企服应用市场:ToB评测及商务社交产业平台 (https://dis.qidao123.com/) Powered by Discuz! X3.4