今天在FreeBuf看了一篇关于大模型内容安全的文章,觉得很故意思,先记载一下本身的理解,方便后续学习。
随着2023年大语言模型(LLM)技术的爆发,其安全性题目也受到了外界的广泛关注与讨论。OWASP作为领先的网络安全研究组织,在其报告中关注以下10个风险点,包罗:提示词注入(Prompt Injection)、训练数据投毒(Training Data Poisoning)、模型拒绝服务(Model Denial of Service)、供应链毛病(Supply Chain Vulnerabilities)、敏感信息泄漏(Sensitive Information Disclosure)、不安全的插件设计(Insecure Plugin Design)、过分代理(Excessive Agency)、过分依靠(Overreliance)、模型偷窃(Model Theft)。
提示词注入
sql注入
起首,文章内容是关于prompt injection(提示词注入)攻击,类似于SQL攻击。先简单介绍一下sql攻击,即攻击者通过拼接一些常规查询语句额外的内容,实现对数据库服务器的非法操作,包罗获取和修改敏感数据如密码等。一个简单的例子是,如果一个网页的登录框没有做安全检查的话,用户/黑客在密码框中输入 ‘1’ OR ‘1’=‘1’,传到后台后,就会形成这样一条SQL指令:
select id from user where name='admin' and pwd ='1' OR '1'='1'