IT评测·应用市场-qidao123.com

标题: DeepSeek的安全挑战和安全控制措施 [打印本页]

作者: 水军大提督    时间: 2025-3-2 04:55
标题: DeepSeek的安全挑战和安全控制措施
本研究探讨了与 DeepSeek 相干的安全风险,为安全和风险管理领导者提供了有针对性的计谋来缓解这些威胁,并提供了可行的措施来增强基于现有安全控制的 AI 保护。
 
重要发现



详细分析

这项研究进一步探讨了考虑使用 DeepSeek 的组织大概面临的安全题目,并提供了不同摆设模式下的建议。

DeepSeek 面临的安全威胁与其他大型语言模型 (LLM) 类似。然而,LLM 的常见AI 安全控制并不是本文档的重点。图 1 说明了与 GenAI 应用步伐相干的重要安全威胁和风险 (STR)。
图 1:天生式人工智能应用面临的重要安全威胁和风险

采用量身定制的安全计谋

采用量身定制的安全计谋来办理模糊的 DeepSeek 安全措施
目前关于 DeepSeek 的讨论往往会集在三种摆设方法上:


DeepSeek 为其网页和移动应用步伐指定了隐私政策 ,表明数据处理和记载在中国举行,公司大概会使用数据举行模型练习。使用 DeepSeek 开发平台时大概也会出现同样的环境。DeepSeek还已向国家网信办 (CAC ) 完成了中国人工智能羁系存案。

然而,DeepSeek 尚未披露其对模型、数据和应用步伐保护的具体控制。自 2025 年 1 月采用激增以来,它遇到了以下安全挑战:


DeepSeek-R1 的一个特点是其可见且扩展的思维链 (CoT),可以彻底解释其推理过程。目前,CoT 的具体安全风险尚不清楚,但已知的风险包罗:


在中国境外开展业务的组织还应注意意大利、美国、澳大利亚和韩国等国禁止使用DeepSeek应用步伐的法规的不确定性。 

Gartner 以为 DeepSeek 是一家不以短期盈利为优先的公司。它从研究的角度支持工程师,而且不碰面临实现财政或业务收益的重大压力。因此,DeepSeek 大概缺乏动力为其应用步伐全面实施企业级安全控制。

明智地选择具有定制且强盛的安全措施的 DeepSeek 摆设选项。

组织可以通过多种途径访问 DeepSeek 的 AI 模型和服务,以满足不同的需求和技能本领(见表 1)。后续章节将探讨三种摆设方法及其相干的安全采用建议。
表1 :DeepSeek 的采用选项
摆设选项
形貌
建议
直接访问   DeepSeek 应用步伐和平台
使用   DeepSeek 的官方网络和移动应用步伐,或通过在 DeepSeek 开发者平台上注册和购买 API 密钥通过 DeepSeek API 举行集成。
由于目前DeepSeek应用步伐和开发者平台的安全控制对外界并不透明,因此Gartner不建议将其直接用于商业目的。
来自 CSP 的模型即服务
DeepSeek 模型越来越多地通过重要云平台提供,提供可扩展、可管理且适用于企业的办理方案。目前提供这些办理方案的 CSP 包罗阿里云、AWS 、谷歌云、华为云、微软云、Nvidia和腾讯云。        
对于无法负担私人托管费用或没有成熟的安全本领来保护 LLM 的组织来说,这是首选方案。
DeepSeek 模型的私有摆设
组织可以在自己的底子设施上(当地或私有云环境中)摆设 DeepSeek 模型。
此选项提供完备的数据主权,适用于合规敏感型行业。
来源:Gartner(2025 年 2 月)
监控和控制

监控和控制对DeepSeek 应用步伐的直接访问以及其开发者平台上的集成
Gartner 建议,除非获得特殊批准,否则不要在涉及敏感业务数据或个人信息的环境下直接使用 DeepSeek。这包罗员工采用应用步伐以及与业务应用步伐的 API 集成。

为了防止未经授权使用 DeepSeek 及相干风险:

o   检察现有的发现和库存机制,以确保它们可以或许检测到 DeepSeek 的潜在“影子 AI”。
o   利用 API 监控、Web 署理、SIEM、端点和移动管理工具或专门的 AI 使用控制工具。
o   对于 DeepSeek 应用步伐的批准使用,要求员工在每次会话竣事后清除聊天记载。

o   向员工宣传利用 DeepSeek 的流行度并链接到冒充 DeepSeek 模型或应用步伐的网络垂纶威胁。
o   实施网络监控、DNS 过滤和明确的报告机制,以降低成为网络垂纶攻击受害者的风险。

o   要求大概开始使用 DeepSeek 模型和应用步伐的第三方提供商保持透明度。

o   与法律和合规专家合作,确保您在使用 DeepSeek 时不会违反当地法规。

支持 CSP 提供的安全模型即服务

重要的 CSP 已集成 DeepSeek 的 V3 和 R1 模型并提供模型即服务。Gartner 强烈建议组织将其天生式 AI 应用步伐与这些 CSP 的模型集成,并启用 CSP 提供的安全功能以增加一层保护。这些关键功能通常包罗反 DDoS、底层底子设施的补丁管理、容器运行时安全、静态和传输中的数据加密、身份和访问管理、安全连接选项以及各种合规性认证。

使用模型即服务的建议:

o   利用 CSP 提供的安全控制,并根据组织的特定合规性和安全性需求自定义设置。
o   使用云访问安全署理 (CASB) 或类似工具来监控和控制数据流。要求 CSP 提供其数据安全控制和审计日志的详细信息。

o   在使用 CSP 提供的 DeepSeek 模型之前,要求透明度并举行彻底的安全评估。
o   举行红队演习来测试模型对常见攻击的抵御本领,或请求第三方安全评估效果。

o   了解模型即服务的共享责任。例如,在通过微调 API 上传微调数据之前,将云存储桶配置为不可公开访问。
o   实施用户控制,例如对数据和应用步伐的访问控制、多因素身份验证、工作负载的安全补丁以及威胁检测和相应。

o   制定变乱相应计划或检察当前计划,为与 DeepSeek 模型即服务相干的数据泄露和服务制止做好预备。
什么环境下使用私人托管

仅当公有云服务受到限制时才选择私人托管
DeepSeek 的开源方式和成本节省使私人托管比以往任何时候都更加可行。然而,大多数组织缺乏专门的 AI 运营团队和 AI 安全知识。一项行业估计称,在运行LLM 的6,449 台活跃服务器中,88.9%没有任何安全措施。这大概导致计算本领被盗、数据泄露、服务制止和大型模型文件被删除等风险。

私有托管仅在组织在使用公有云服务受到限制的环境下才是一种选择。选择私有摆设 DeepSeek 模型的组织应确保他们全面了解保护这些模型所需的安全措施。拥有一支专门的专业安全团队、全面的安全控制和可控的长期安全运营成本至关重要。

DeepSeek 私域托管建议:

o   确保全面覆盖人工智能风险和安全挑战。
o   始终从受信任且经过验证的存储库获取 DeepSeek 模型并实验完备性查抄。保持严酷的版本控制并监控公开的漏洞报告。

o   应用加密、多因素身份验证、数据匿名化和应用步伐安全测试。
o   实施基于域的摆设、零信任架构和最小特权权限,以防止数据泄露。

o   投资建立人工智能和机器学习安全专业知识,或与专业的网络安全公司建立合作同伴关系,提供持续的安全服务。
o   使用红队测试数据集模拟恶意对抗攻击场景,增强模型识别和过滤有害内容的本领。

o   对CoT输出的每个步调举行内容评估和过滤(例如隐私信息,关键字,逻辑谬误)。
o   根据用户角色动态控制CoT的展示深度,例如普通业务用户只能看到结论或者有限的CoT内容,而业务审计功能可以检察完备的CoT逻辑。


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。




欢迎光临 IT评测·应用市场-qidao123.com (https://dis.qidao123.com/) Powered by Discuz! X3.4