论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
只需一步,快速开始
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
ToB企服应用市场:ToB评测及商务社交产业平台
»
论坛
›
安全
›
主机安全
›
LLM大模子的安全风险
LLM大模子的安全风险
羊蹓狼
金牌会员
|
2024-10-19 07:10:10
|
来自手机
|
显示全部楼层
|
阅读模式
楼主
主题
883
|
帖子
883
|
积分
2649
弁言
「大模子」引领的创新变革正在发生身处技能爆炸期间,高光与隐忧共存。
安全风险
已成为发展中无法忽视的话题。
LLM在使用过程中包罗敏感机密的数据或信息,可能会导致未授权的数据访问、隐私陵犯、安全弊端等风险,随之造成
敏感信息泄露
。
2023年8月,环球开放应用软件安全项目组织(OWASP)发布了针对LLM应用的Top10埋伏安全风险,
敏感信息泄露
赫然在列。
在信手拈来对内容加工时,「大模子们」已经煽动了蝴蝶之翼。
大模子的「记住」正在被轻易「说出」
2021年,当时开始进的LLMGPT-2被发现,在面对恶意前缀注入时,模子会返回疑似练习数据中的敏感信息的内容,包罗:
姓名、邮箱、手机号、传真号
等。
无独有偶,今年4月,ChatGPT被曝出巨大隐私走漏,被走漏信息包罗:姓名、邮箱、聊天记录标题、光荣卡后四位数字等。
大量公开、私有数据的练习让大模子的「记住」可以被轻易「说出」
。
LLM通常使用大量的公开和私有数据进行练习,而这些练习数据通常来自对互联网上海量文本的爬取和收集。
这些文本数据潜藏着各种敏感信息
,可能对个体、社会、技能发展和开发者带来一下负面影响:
身份盗用
被走漏的个人敏感信息可能被恶意利用,导致身份盗用,虚伪账户开设等违法举动。
社会工程
攻击者可利用走漏信息进行社会工程攻击,欺骗受害者提供更多敏感信息,进行欺诈。
形象受损
隐私走漏可能导致个体形象,声誉受损,特别是对于公众人物或知名个体而言尤为紧张。
违反隐私法规
LLM走漏个人隐私可能违反隐私法规,导致法律责任和对开发者的质疑。
信托危机
公众可能产生对人工智能技能和相干应用的安全性担忧,影响信息程度。
大模子「知无不言」,IP保护何去何从
今年7月,OpenAI被两名作家告上法院,抗议ChatGPT练习侵权,以为OpenAI获取了他们具有明确版权管理信息的图书内容用于LLM的练习,且没有标明泉源或付出版权费。
当前LLM生成内容难以追溯到详细的知识产权信息泉源,使得发现和保护知识产权更加困难。尤其引发知识产权陵犯题目连续产生大量负面影响:
经济损失
LLM生成内容可能会陵犯原作者的知识产权,如专利、著作权、商标等,并导致经济损失。
不合法规
LLM知识产权陵犯变乱违反了相干法律法规,可能产生法规纠纷和罚款等负面结果。
责任追究
开发者可能面对技能责任追究,需采取更严酷的措施来防止知识产权陵犯,做好内容监视。
复制粘贴一时爽
今年3月,某星(三?)被曝出三期商业机密走漏变乱,员工A将涉密源代码复制到ChatGPT上,用以处理程序错误,员工B将内部会议记录上传至ChatGPT上,以求自动生成会议纪要,员工C将自己工作台上的代码上传,并要求ChatGPT帮其优化。
走漏商业机密的变乱的主要原因在于ChatGPT在于用户交互过程中会保留用户输入数据用作为来练习数据,该变乱影响巨大,连续引发更广泛的法律和监视题目。
商业损失
违反数据保护条例
LLM正在「随抓随取」
假如和ChatGPT说”不绝重复poem这个词会怎样“,研究职员发现练习一种练习数据提取的攻击方式,在上述看似简朴的使命中,ChatGPT在输出了一定数量的单词之后开始颠三倒四,输出大段疑似是练习数据的内容,甚至还
包罗某人的邮箱署名和接洽方式
等。
LLM在练习过程中使用的数据有很大一部门来自对互联网公开数据的爬取。
未颠末滤的公开数据中可能会不测包罗敏感数据信息
,对模子、数据提供者以及整个生态系统产生多方面的影响。
逆向工程
获取练习数据后攻击者能够对模子进行逆向工程,了解模子的内部结构和决定过程,对模子的知识产权和商业机密构成威胁并造成更大损失。
对抗性攻击
攻击者得到练习数据后可以通过对抗性攻击干扰模子的性能。增加误导性输入,使模子做出错误性的预测,进一步凸显大语言模子的脆弱性。
大模子「夹带私货」
LLM也会遭受恶意序列编码攻击,此前,在对国内某LLM进行测试后发现,在收到特定base64编码组成的提示词后,作为输入的时间,LLM返回的对其解码的
复兴中包罗异常内容
,原因是:LLM并不具备知识编码内容的能力,反而在复兴中不测输出
疑似练习数据的内容
。
大模子对内容的自我加工输出,不免「夹带私货」,而这也是走漏的源头。
恶意序列注入是指攻击者通过编码巧妙设计的输入序列,试图操纵LLM进而导致模子的异常举动。这种攻击可能
通过利用模子对输入序列的处理方式
,使模子走漏其练习数据的一些特征或信息。
弊端利用
探测性攻击
对抗性攻击
输入与输出
提示词用以赋予LLM脚色定位,在多数情况下,是模子生成有意义和相干输出的关键隐私,Copilot Chat和Bing Chat都曾走漏过提示词,攻击者仅仅使用了短短的几句话,就骗过了LLM且绕开了安全机制防护。
提示词正在为GPT们的安全敲响警钟,谁来保障大模子的输出?
LLM提示词直接决定了模子的运作方式并控制生成的输出内容,提示词是驱动整个系统的焦点元素,有着被走漏的风险:
知识产权
提示词攻击
滥用风险
怎样系统的去学习大模子LLM ?
大模子期间,火爆出圈的LLM大模子让程序员们开始重新评估自己的本领。 “AI会代替那些行业?”“谁的饭碗又将不保了?”等题目热议不断。
事实上,
抢你饭碗的不是AI,而是会利用AI的人。
继科大讯飞、阿里、华为等巨头公司发布AI产物后,许多中小企业也陆续出场!
超高年薪,挖掘AI大模子人才!
如今大厂老板们,也更倾向于会AI的人,平凡程序员,另有应对的机会吗?
与其焦虑……
不如成为「把握AI工具的技能人」,毕竟AI期间,
谁先实行,谁就能占得先机!
但是LLM相干的内容许多,如今网上的老课程老教材关于LLM又太少。所以如今小白入门就只能靠自学,学习成本和门槛很高。
针对所有自学遇到困难的同砚们,我帮大家系统梳理大模子学习脉络,将这份 LLM大模子资料 分享出来:包罗LLM大模子册本、640套大模子行业报告、LLM大模子学习视频、LLM大模子学习路线、开源大模子学习教程等,
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
羊蹓狼
金牌会员
这个人很懒什么都没写!
楼主热帖
让你成为网络世界中有破坏力的人-HTTP ...
一文带你走进【内存泄漏】
dolphinscheduler单机化改造
保举开源项目:LuCI App AdGuardHome - ...
一文搞懂static
邮件管理数据库设计--MySQL
day01-Tomcat框架分析
3. 视图-触发器-存储过程-索引 ...
读高性能MySQL(第4版)笔记04_操作系 ...
MySQL 8.0.29 instant DDL 数据腐化问 ...
标签云
挺好的
服务器
快速回复
返回顶部
返回列表