择要:生成式人工智能(Generative Artificial Intelligence,GAI)大模型深刻地影响着信息流传、内容创作和社会互动等领域,也带来数据隐私走漏、虚假内容生成和知识产权掩护等一系列安全挑衅。通过探究GAI在当前阶段的安全风险和相应的管理策略,以期为该技能的持续健康发展提供鉴戒。首先分析了GAI技能发展引致的各种安全挑衅。其次探讨了GAI典型安全题目,包罗数据安全和隐私、模型滥用、算法稳定性以及GAI技能在文本生成、图像辨认等方面存在可被恶意攻击的成因。最后探讨建立多层次的GAI安全管理框架,包罗技能层、构造层和社会层以及安全可控可靠的管理策略和具体的管理路径,通过政府监管部门、人工智能企业、学术界以及公众等多方协同管理,进步全社会对GAI安全的认知和应对本领。
关键词:生成式人工智能;数据隐私;虚假内容监管;技能管理路径;安全评价体系
0 引言
人工智能(Artificial Intelligence,AI)技能的发展已经成为当前科技领域备受关注的热点之一,其中生成式人工智能(Generative AI,GAI)大模型以其强大的学习和生本钱领引发了广泛关注。然而,伴随着大模型本领的提升,其在安全和伦理方面所面临的挑衅也日益凸显。有研究指出,生成式大模型存在着数据滥用、算法稳定性不敷、易受对抗攻击等诸多安全隐患[1-2]。例如,GPT-3等大模型在预练习阶段必要海量的数据,一旦这些数据被恶意篡改或污染,将直接影响模型的输出效果,产生严峻的安全隐患。别的,研究表明当前主流的GAI模型对于对抗性样本的鲁棒性广泛较差,极易受到恶意攻击而产生错误或有害的输出[1,3]。这些安全挑衅不仅危及模型自己的可靠性,更可能对社会安全稳定构成严峻威胁。
面对AI大模型所带来的安全风险,亟需从技能创新、伦理规范、法律法规等多个层面开展管理。现在,欧盟委员会提出了《人工智能白皮书》,经济互助与发展构造(Organization for Economic Cooperation and Development,OECD)发布《人工智能原则》等[4],旨在开展AI管理框架和尺度工作。我国也先后推出《互联网信息服务算法推荐管理规定》和《互联网信息服务深度合成管理规定》,目标是加强算法科研管理,规范智能技能供给,健全算法推荐机制、算法安全体系和促进深度合成技能安全可信发展,推进算法综合管理、深度合成管理、净化网络空间;新版《网络安全审查办法》《生成式人工智能服务管理暂行办法》和《网络暴力信息管理规定》,目标是探索AI管理法治路径、以安全助发展和以管理促创新,形成面向AI期间的数据管理新生态,以良法善治为清朗网络空间构建法治屏障。这些管理举措形成以下共识:强调要加强对AI系统的风险管控,建立健全的安全评估机制,确保AI沿着有利于人类社会的方向发展。技能层面要加强对GAI大模型的可解释性研究,开辟可供审计的模型机制,提升模型对恶意数据和对抗攻击的鲁棒性,同时还应加强跨学科交叉融合,切实保障模型练习数据的安全和隐私。法律法规方面应加速建立适应AI期间特点的法律体系,明白规定AI系统的权责界限,严厉打击利用AI从事危害社会的违法犯罪举动。伦理规范方面要加强AI伦理研究,建立以人为本、安全可控的根本原则,并纳入到AI系统的计划开辟全过程。
综上所述,对GAI大模型安全风险题目的有效管理和规范管理要与其发展远景同步进行。本文从技能创新角度探讨GAI典型的数据安全和隐私、模型滥用、算法稳定性、抵御攻击等方面的风险,以及通过技能创新与制度计划并重的多层次管理框架,多方协同共治策略和路径,包罗技能防御、法治建立、公众教诲、国际互助等多方面内容。确保AI朝着安全可控的方向不停发展,更好地造福人类社会。
1 AI大模型概述
1.1 GAI模型的发展
GAI近年来发展敏捷,以ChatGPT、Stable Diffusion、Sora、LLaMA、文心一言等大型语言模型和多模态模型为代表,生本钱领不停提升。这些模型通过海量数据的练习,能够生成高质量的文本、图像、视频等内容,在内容创作、对话交互、知识问答、文生图等领域展现出巨大的应用潜力[3,5-6]。以GPT-3为例,其参数量高达1 750亿[7],在尺度测试中展现出类人程度的语言理解和生本钱领;而DALL-E 2则能根据文本提示生成逼真的图像,其分辨率可达1 024×1 024像素。然而随着GAI模型本领的增强,其安全风险也日益凸显。由于这些模型大多接纳无监督学习方式进行练习,很难对其生成内容进行有效约束和控制,模型可能生成有害、违法或不道德的内容,如愤恨言论、暴力血腥画面等[1-2]。同时,模型练习所需的海量数据也可能引发隐私走漏题目。别的,模型的生本钱领还可能被滥用于制造假新闻以及深度伪造等,对社会安全稳定构成威胁[1,8]。
针对这些安全挑衅,学术界和产业界开始探索相应的应对措施。DeepMind公司提出了“可控生成”(Controlled Generation)的概念,通过对模型施加额外的约束条件,使其生成内容符合特定要求。微软研究院则提出了一种基于强化学习的方法,通过处罚模型生成有害内容的举动,引导其学习生成安全合规的内容。这些技能探索为解决生成式模型的安全题目提供了新的思路。
现在GAI模型的安全题目体现为以下几点。首先,现有的技能方案还不够成熟,很难完全消除模型产生有害内容的可能性。其次,李飞飞[5]以为GAI技能仍旧处于“前牛顿”期间,该技能还会持续突破和涌现,因此随之的安全题目和种类也会持续出现。最后,GAI模型的安全题目还涉及伦理、法律等诸多方面,单靠技能手段难以全面应对。未来还必要在技能创新、伦理规范、法律法规等多个维度协同发力,建立多方参与的管理机制,促进AI健康可持续发展。
1.2 文献综述
本文分别从风险辨认和管理路径两方面总结国表里学者的研究效果。
1.2.1 GAI风险辨认综述
大模型实行过程:首先是风险评估。随着GAI数据容量的快速积聚,其在数据、算法安全等方面存在质量风险[9-10],体现为标注数据质量差异、语料库无代表性、敏感信息走漏等[11],可能导致模型生成毒害内容、虚假信息流传、用户数据走漏等挑衅[9-13]。别的,算法不透明[14]导致的模型不可解释、算法操控[13]、人构造系中的伦理风险等,可能导致风险快速传递和削弱网络空间的凝聚力等[14-15]。其次是风险辨认。在数据采集、存储等6个阶段[16-17]上辨认G
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |