网安加·百家讲坛 | 宋荆汉:大模子生成代码的安全风险及应对 ...

打印 上一主题 下一主题

主题 797|帖子 797|积分 2391

作者简介:宋荆汉,网安加学院院长,深圳创新方法研究会理事、深圳质量协会专家委员,网安加社区、质量实干派社区创始人。20年研发及管理经验,在复兴通讯、任子行网络,全志科技、汇金科技,担任研发管理高管,曾参与国家测试与安全类职业认证标准、国家软件安全开发相干标准的制定,对软件安全开发有比较深入的研究。曾为多家天下500强企业提供研发管理培训及咨询。
  
一、媒介

比年来,人工智能技能的迅猛发展已将生成式AI(AIGC)推至软件开发的前沿阵地。诸如GitHub Copilot与ChatGPT等AIGC前锋,凭借深度学习模子的强盛力量,正深刻改变着编程的方式。

它们不但能深入剖析代码的语义逻辑,助力开发者迅速掌握遗留项目代码的维护,还能根据简短的提示,智能生成代码片断,极大地加快了开发服从的提升。

面对这一技能海潮,主流的静态应用安全测试(SAST)厂商亦不甘落后,纷纷将AIGC大模子技能融入其产物中,力求在代码安全领域实现创新迭代。

差别于传统SAST工具仅止步于漏洞的发现,这些创新产物借助大模子的能力,不但精准定位漏洞,更提供细致的漏洞描述与针对性的修复建议。更令人瞩目的是,它们能直接生成修复后的代码,有效解决了“检测易,修复难”的痛点,让开发职员与安全团队之间的合作更加顺畅,彻底颠覆了“管杀不管埋”的旧有印象。

然而,正如任何技能革新都陪同着挑衅与风险,AIGC在提升编程服从的同时,也寂静埋下了安全隐患。

本文旨在剖析AIGC生成代码所面对的主要安全风险,并探索一系列行之有效的应对步伐,引导行业在享受技能红利的同时,也能稳健前行,确保软件系统的安全与可靠。

二、基于AIGC代码生成的安全风险

通过引入代码自动生成技能,工作服从明显提升,然而,这一进步也引发了对于生成代码安全性的深切关注。

据参考文献1中针对Copilot工具生成的代码举行的安全性研究报告展现,研究团队精心设计了涵盖CWE(常见弱点枚举)中的18个大类下的54个详细场景,Copilot乐成输出了1087个有效程序。

然而,在这些程序中,令人担心的是,高达477个(占比43.88%)被发现含有CWE定义的漏洞。

进一步按编程语言细分,C语言的表现尤为堪忧:在25个测试场景中生成的516个程序中,竟有258个(占比高达50%)存在安全漏洞。

相比之下,Python虽然情况稍好,但在29个场景下的571个程序中,仍有219个(38.4%)存在安全隐患。

参考文献2的研究则为我们提供了另一维度的洞察。

该研究在452个代码片断中统共识别出了544个安全问题,下表细致统计了差别编程语言文件中安全弱点的分布情况。



而且根据文献4的研究表现,通过AIGC生成的代码中,比较擅长规避语法类的CWE漏洞,如:

CWE 121 - Stack-based Buffer Overflow
CWE 787 -Out of bounds Write
CWE 79 -Cross Site Scripting
CWE 416 -Use After Free
CWE 125 -Out of Bounds Read
CWE 476 - NULL Pointer Dereference
CWE 119 -Improper Restriction of Operations

而在自动生成代码中发现漏洞通常是外部输入相干的,如:

CWE 20 -Improper Input Validation
CWE 502 -Deserialization of Untrusted Data
CWE 78 -OS Command Injection
CWE 22 -Path Traversal
CWE 434 -Unrestricted Upload of File with
Dangerous Type
CWE 522 -Insufficiently Protected Credentials

生成的代码之以是潜藏安全风险,根源在于AI训练所依赖的代码素材主要源自开源代码库。

然而,Synopsys新思科技发布的《开源安全和风险分析报告》(OSSRA)2024版展现了一个严峻的现实:在这些开源代码中,有53%面对着许可证冲突的问题,31%则缺乏明确的许可证或采用自定义许可证,这直打仗及了合规性风险。

更令人不安的是,高达84%的代码库含有漏洞,此中74%更是被归类为高风险漏洞,这无疑是对安全性的重大挑衅。

根据上面漏洞类型分析,我们不难发现,开源软件在输入处理方面广泛存在疏漏,而相比之下,语法层面的错误却得到了相对较多的关注与修正。

这反映出,尽管开源社区在推动技能创新与共享方面功不可没,但在安全性与合规性方面的积极仍有待加强。

鉴于此,当AI模子从这样一个充满风险与合规挑衅的开源代码库中学习时,其输出的代码自然难以摆脱这些固有问题的阴影。

因此,AI生成的代码不但可能不安全,还同样面对着合规性的严峻磨练。

OWASP(开放式Web应用安全项目)发布了针对大型语言模子(LLM)应用的Top 10埋伏安全风险如下:

1. Prompt lnjection(提示注入):通过精心制作的输入使用LLM,绕过内容监管过滤,实行非法操作。

2. Insecure Output Handling(不安全的输出处理):未验证LLM输出可能导致卑鄙安全漏洞,如代码实行。

3. Training Data Poisoning(训练数据中毒):被篡改的训练数据可能导致模子响应不妥,影响安全、正确性。

4. Model Denial of Service(模子拒绝服务):通过资源密集型操作过载LLM,导致服务中断。

5. Supply Chain Vulnerabilities(供应链漏洞):依赖于被破坏的组件、服务或数据集,危及系统完整性。

6. Sensitive Information Disclosure(敏感信息泄漏):LLM在响应中不测泄漏敏感数据。

7. Insecure Plugin Design(不安全的插件设计):自动调用的插件可能存在输入不安全和缺乏访问控制的问题。

8. Excessive Agency(过度代理):基于LLM的系统被赋予过多的功能、权限或自主权。

9. Overreliance(过度依赖):在没有监督的情况下过度依赖LLM可能导致错误信息和安全漏洞。

10. Model Theft(模子盗窃):未经授权的访问、复制或泄漏LLM模子。

此中,2、3、5、9均与生成代码的安全性相干,也应证了上述的分析。

我们总结AIGC生成代码的安全风险主要在3个方面:

(1) 采用的底层技能导致的幻觉问题,使得生成的代码本身存在错误可能性;

(2) 训练样本污染,导致生成的代码存在安全漏洞;

(3) 同样会引入开源组件代码,带来难以清除的合规性风险。

三、风险的应对

在应对AIGC生成代码安全风险时,首先要对其有正确的熟悉,AIGC自动生成的代码与自己写的代码,包括引用的开源组件一样,都存在安全风险及合规性风险。

AIGC生成的代码,也需要经过严酷的验证,高效的验证手段其实可以更好的推广AIGC生成代码的应用,现在的SAST/IAST/DAST/SCA等应用安全检测工具,对AIGC生成代码的安全性依然起着关键的作用。

针对LLM TOP10中与生成代码安全相干风险的应对步伐:
▪︎ LLM02、Insecure Output Handling(不安全的输出处理)
首先要对生成的代码举行严酷的安全验证,同时要改进代码训练与与提示,详细包括:
代码检察。
代码自动化扫描,使用AST工具扫描代码识别埋伏安全漏洞。
零信托原则,对LLM生成的任何代码持怀疑态度,举行彻底的安全验证后再集成到项目中。
优化训练数据,提高代码样本质量,定期清理与检察有安全漏洞的样本。
构建安全提示词,提供明确的安全提示,引导LLM生成更安全的代码。比方,在提示中包罗输入验证和清理的代码片断。

▪︎ LLM03、Training Data Poisoning(训练数据中毒)
训练数据样本供应链的验证,尽可能从可信、权势巨子的渠道获取训练数据,淘汰数据被污染的风险。假如条件答应,可以尝试从多个独立的数据源获取相同或雷同的数据,通过比对来识别埋伏的数据中毒情况。
优化训练数据。

▪︎ LLM05、Supply Chain Vulnerabilities(供应链漏洞)
生成并维护生成代码的SBOM。
开源组件的安全与合规性扫描。
LLM应用开发供应链安全监控。
引用可信组件库。

▪︎ LLM09、Overreliance(过度依赖)
建立安全编码规范。
提升开发职员应用LLM时的安全意识。
实施代码检察。
代码自动化扫描。

四、总结及展望

AIGC技能在明显提升编程服从的同时,也带来了新的安全风险,这一事实再次印证了软件工程领域不存在“银弹”。

面对这一挑衅,我们必须接纳多维度、综合性的策略来有效应对AIGC生成代码所带来的安全隐患。

加强代码检察与测试是基石,确保每一行代码都经过严酷的质量与安全把关。

同时,提升数据保护步伐,构建精密的信息安全网,是保障技能安全的另一重要环节。

此外,优化算法模子,通过模子对齐等先进技能,让AIGC生成的代码从源头上就具备安全性,这无疑是解决安全问题的根本之道。

在法规与行业标准的层面,完善相干法律法规,制定统一的行业标准,为AIGC技能的应用提供明确的指导和规范,也是不可或缺的。

同时,提高用户透明度和信托度,让用户对AIGC技能的运作原理和安全机制有更深入的相识,从而加强用户的信心和安全感同时也提升应用新技能时的安全风险意识。

将来,我们应连续关注AIGC技能的发展动态和安全风险变化趋势,以科学的方法论为指导,不断完善和优化安全管理体系和技能手段,确保AIGC技能在康健、安全的轨道上连续发展。

参考文献

[1]An Empirical Cybersecurity Evaluation of GitHub Copilot’s Code Contributions.https://arxiv.org/pdf/2108.09293v2.pdf
[2]Security Weaknesses of Copilot Generated Code in GitHub.arXiv:2310.02059v2 [cs.SE] 4 Apr 2024
[3]Is GitHub’s Copilot as Bad as Humans at Introducing Vulnerabilities in Code?.arXiv:2204.04741v5 [cs.SE] 6 Jan 2024
[4]Asleep at the Keyboard? Assessing the Security of GitHub Copilot’s Code Contributions.2022 IEEE Symposium on Security and Privacy (SP) | 978-1-6654-1316-9/22/$31.00 ©2022 IEEE | DOI: 10.1109/SP46214.2022.9833571

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

半亩花草

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表