AI Agent是一种具有自主性或半自主性的智能实体,可以或许利用人工智能技术在数字或物理环境中感知、决议、接纳行动并实现目标,这种能力使得AI Agent有大概彻底改变各行各业和各种环境。
大模型缺少在最少的人类监督下自主行动的能力,以及在复杂环境中顺应和实行目标的能力,基于大模型的AI Agent利用大模型理解、思索输出的“专家能力”,并附加规划、影象、实行、工具调用能力,可以替换大量人工实行,消除大模型和真实天下沟通的障碍,解决大模型落地的“末了一公里”。 01 AI Agent带来的新风险
AI Agent具有巨大的应用潜力,但同时也带来了新的安全风险。传统AI模型和应用的安全风险通常限于模型输入、模型处理和模型输出、编排层的软件毛病以及托管它们的环境。除了这些威胁外,AI Agent还引入了新的人工智能风险。
在使用AI Agent时,安全风险范围扩大到了AI Agent触发和到场的一系列变乱和交互中,这些通常对人类或体系操纵员来说是不可见的,也无法举行阻止。
AI Agent在实行任务时大概引入的一系列安全问题,包罗数据安全、资源管理、恶意活动、编码错误、供应链安全以及恶意代码的传播等,这些问题需要通过适当的安全措施举行解决。AI Agent带来的安全风险包罗: · 数据袒露或外泄:AI Agent在实行任务的过程中大概会在任何环节袒露或外泄敏感数据; · 过度消耗体系资源: AI Agent在实行和交互的过程中大概会无控制地消耗大量体系资源,无论是故意照旧无意,这大概导致体系资源过载; · 未授权或恶意活动: AI Agent大概会故意或无意地实行未授权或恶意的活动,例如恶意步伐或人类的Agent“挟制”行为; · 编码逻辑错误: AI Agent大概会由于编码逻辑错误导致数据泄露或其他威胁,这些错误大概是未经授权的、不测的或恶意的; · 供应链风险: 使用从第三方网站下载的库或代码用于AI Agent大概会带来供应链风险,这些代码大概被植入了恶意软件,旨在实行恶意任务; · 恶意代码的传播和复制: 使用主动化的Agent流程大概会传播和复制恶意代码,以及通过检索加强天生(RAG)对Agent举行“投毒”触发恶意行为。 02 AI Agent安全风险的应对措施
为了应对上述AI Agent安全风险,企业应接纳如下措施:
第一,监控全部AI Agent的行动和信息流;
第二,检测和标志异常的AI Agent行动;
第三,尽大概地使用主动化手段实时修复问题。