羊蹓狼 发表于 2024-10-19 07:10:10

LLM大模子的安全风险

弁言

「大模子」引领的创新变革正在发生身处技能爆炸期间,高光与隐忧共存。安全风险已成为发展中无法忽视的话题。
LLM在使用过程中包罗敏感机密的数据或信息,可能会导致未授权的数据访问、隐私陵犯、安全弊端等风险,随之造成敏感信息泄露。
2023年8月,环球开放应用软件安全项目组织(OWASP)发布了针对LLM应用的Top10埋伏安全风险,敏感信息泄露赫然在列。
https://i-blog.csdnimg.cn/direct/9eefeb206c144b63b02c6789a917011d.jpeg
在信手拈来对内容加工时,「大模子们」已经煽动了蝴蝶之翼。
大模子的「记住」正在被轻易「说出」

2021年,当时开始进的LLMGPT-2被发现,在面对恶意前缀注入时,模子会返回疑似练习数据中的敏感信息的内容,包罗:姓名、邮箱、手机号、传真号等。
https://i-blog.csdnimg.cn/direct/a042e941f93f493d87bfc5ea2e6a698b.jpeg
无独有偶,今年4月,ChatGPT被曝出巨大隐私走漏,被走漏信息包罗:姓名、邮箱、聊天记录标题、光荣卡后四位数字等。
大量公开、私有数据的练习让大模子的「记住」可以被轻易「说出」。
LLM通常使用大量的公开和私有数据进行练习,而这些练习数据通常来自对互联网上海量文本的爬取和收集。这些文本数据潜藏着各种敏感信息,可能对个体、社会、技能发展和开发者带来一下负面影响:


[*]身份盗用
被走漏的个人敏感信息可能被恶意利用,导致身份盗用,虚伪账户开设等违法举动。


[*]社会工程
攻击者可利用走漏信息进行社会工程攻击,欺骗受害者提供更多敏感信息,进行欺诈。


[*]形象受损
隐私走漏可能导致个体形象,声誉受损,特别是对于公众人物或知名个体而言尤为紧张。


[*]违反隐私法规
LLM走漏个人隐私可能违反隐私法规,导致法律责任和对开发者的质疑。


[*]信托危机
公众可能产生对人工智能技能和相干应用的安全性担忧,影响信息程度。
大模子「知无不言」,IP保护何去何从

今年7月,OpenAI被两名作家告上法院,抗议ChatGPT练习侵权,以为OpenAI获取了他们具有明确版权管理信息的图书内容用于LLM的练习,且没有标明泉源或付出版权费。
https://i-blog.csdnimg.cn/direct/6e1282e2937d48d2ba985ed56a762ace.jpeg
当前LLM生成内容难以追溯到详细的知识产权信息泉源,使得发现和保护知识产权更加困难。尤其引发知识产权陵犯题目连续产生大量负面影响:


[*]经济损失
LLM生成内容可能会陵犯原作者的知识产权,如专利、著作权、商标等,并导致经济损失。


[*]不合法规
LLM知识产权陵犯变乱违反了相干法律法规,可能产生法规纠纷和罚款等负面结果。


[*]责任追究
开发者可能面对技能责任追究,需采取更严酷的措施来防止知识产权陵犯,做好内容监视。
复制粘贴一时爽

今年3月,某星(三?)被曝出三期商业机密走漏变乱,员工A将涉密源代码复制到ChatGPT上,用以处理程序错误,员工B将内部会议记录上传至ChatGPT上,以求自动生成会议纪要,员工C将自己工作台上的代码上传,并要求ChatGPT帮其优化。
走漏商业机密的变乱的主要原因在于ChatGPT在于用户交互过程中会保留用户输入数据用作为来练习数据,该变乱影响巨大,连续引发更广泛的法律和监视题目。


[*]商业损失
[*]违反数据保护条例
https://i-blog.csdnimg.cn/direct/4d133d6709f548bfb1fa9ea12cb104a9.jpeg
LLM正在「随抓随取」

假如和ChatGPT说”不绝重复poem这个词会怎样“,研究职员发现练习一种练习数据提取的攻击方式,在上述看似简朴的使命中,ChatGPT在输出了一定数量的单词之后开始颠三倒四,输出大段疑似是练习数据的内容,甚至还包罗某人的邮箱署名和接洽方式等。
https://i-blog.csdnimg.cn/direct/603121a967c349808849695070164104.jpeg
LLM在练习过程中使用的数据有很大一部门来自对互联网公开数据的爬取。未颠末滤的公开数据中可能会不测包罗敏感数据信息,对模子、数据提供者以及整个生态系统产生多方面的影响。


[*]逆向工程
获取练习数据后攻击者能够对模子进行逆向工程,了解模子的内部结构和决定过程,对模子的知识产权和商业机密构成威胁并造成更大损失。


[*]对抗性攻击
攻击者得到练习数据后可以通过对抗性攻击干扰模子的性能。增加误导性输入,使模子做出错误性的预测,进一步凸显大语言模子的脆弱性。
大模子「夹带私货」

LLM也会遭受恶意序列编码攻击,此前,在对国内某LLM进行测试后发现,在收到特定base64编码组成的提示词后,作为输入的时间,LLM返回的对其解码的复兴中包罗异常内容,原因是:LLM并不具备知识编码内容的能力,反而在复兴中不测输出疑似练习数据的内容。
大模子对内容的自我加工输出,不免「夹带私货」,而这也是走漏的源头。
恶意序列注入是指攻击者通过编码巧妙设计的输入序列,试图操纵LLM进而导致模子的异常举动。这种攻击可能通过利用模子对输入序列的处理方式,使模子走漏其练习数据的一些特征或信息。


[*]弊端利用
[*]探测性攻击
[*]对抗性攻击
https://i-blog.csdnimg.cn/direct/2e778134794843f584070bfe831ec429.jpeg
输入与输出

提示词用以赋予LLM脚色定位,在多数情况下,是模子生成有意义和相干输出的关键隐私,Copilot Chat和Bing Chat都曾走漏过提示词,攻击者仅仅使用了短短的几句话,就骗过了LLM且绕开了安全机制防护。
https://i-blog.csdnimg.cn/direct/ac795960bb284268af08f8e2a2791950.jpeg
提示词正在为GPT们的安全敲响警钟,谁来保障大模子的输出?
LLM提示词直接决定了模子的运作方式并控制生成的输出内容,提示词是驱动整个系统的焦点元素,有着被走漏的风险:


[*]知识产权
[*]提示词攻击
[*]滥用风险
https://i-blog.csdnimg.cn/direct/5da31534372e44ffacbd46d2e8bba7bd.jpeg
怎样系统的去学习大模子LLM ?

大模子期间,火爆出圈的LLM大模子让程序员们开始重新评估自己的本领。 “AI会代替那些行业?”“谁的饭碗又将不保了?”等题目热议不断。
事实上,抢你饭碗的不是AI,而是会利用AI的人。
继科大讯飞、阿里、华为等巨头公司发布AI产物后,许多中小企业也陆续出场!超高年薪,挖掘AI大模子人才! 如今大厂老板们,也更倾向于会AI的人,平凡程序员,另有应对的机会吗?
与其焦虑……

不如成为「把握AI工具的技能人」,毕竟AI期间,谁先实行,谁就能占得先机!
但是LLM相干的内容许多,如今网上的老课程老教材关于LLM又太少。所以如今小白入门就只能靠自学,学习成本和门槛很高。
针对所有自学遇到困难的同砚们,我帮大家系统梳理大模子学习脉络,将这份 LLM大模子资料 分享出来:包罗LLM大模子册本、640套大模子行业报告、LLM大模子学习视频、LLM大模子学习路线、开源大模子学习教程等,
页: [1]
查看完整版本: LLM大模子的安全风险