公司
| 产品
| 总部
| 成立时间
| 区分能力
|
ActiveFence
| ActiveFence的 AI Guardrails
| 美国
| 2018
| 用于构建和摆设 AI 应用的护栏。为任何 AI 模子组合提供基于策略的可定制保护。专注于可见性、安全评估、及时保护和变乱管理。
|
Aim Security
| Aim AI安全平台
| 以色列
| 2022
| 多种 AI 资产(模子、署理、管道、ML 流程、笔记本、库)的运营管理和可见性、风险评估和自动红队。运行时监控可防止即时注入和越狱,涵盖运行时数据、AI 应用程序保护(RAG 漏洞和署理工作流),并与 DSPM 集成以突出显示用于训练 AI 资产的敏感数据。
|
AIShield(由博世提供支持)
| AISpectra——模子开辟的人工智能安全
Guardian — 运行时安全的 AI 防火墙
| 印度
| 2022
| 运营管理和运行时控制,包括 AI 库存管理和连续评估、自动红队、及时入侵检测和漏洞评估。以风险评分库存为基础的 AI 交互运行时分析,并与 DevSecOps 和 SIEM 工具集成。
|
Apex
| Apex AI安全平台
| 美国
| 2023
| 运营管理包括 AI 库存和连续评估。无代明白决方案,可检测和响应所有企业 AI 活动。
|
APPSOC
| APPSOC人工智能
| 美国
| 2021
| 使用姿态管理、AI 发现、红队和模子测试、AI 供应链安全等工具进行运营管理和运行时控制。还提供负责任的 AI 过滤、ML 驱动的 DLP 和内容异常检测。
|
CalypsoAI
| Inference Defend
Inference Red Team
| 爱尔兰
| 2018
| CalypsoAI Inference Defend 通过查抄和执行 AI 交互来提供及时推理层安全性,并根据模子性能、用户行为和威胁情报不停调整防御步伐,同时实现可定制的控制并遵守不停变革的法规。
CalypsoAI Inference Red Team提供自动化、可扩展的评估,运行现实世界的对抗性攻击,以自动识别漏洞并创建风险评分的 AI 库存,将署理战与签名攻击和操作测试相结合。
|
思科(强盛智能)
| Cisco AI Defense
| 美国
| 1984
| Cisco AI Defense可保护企业应用程序的开辟和摆设,以及员工对第三方 AI 应用程序的使用。该产品以收购Robust Intelligence时获得的算法漏洞测试和运行时护栏为基础,并使用思科的网络层可视性和安全实施来保护分布式情况中的 AI 资产和工作负载。
|
Collibra
| | 美国
| 2008
| Collibra提供管理功能,包括模子文档、可解释性、合规性功能,并在 AI 可靠性和合规性方面同样投入。它还在领先的 AI/ML 平台上提供运行时指标和执行机制。
|
Coralogix(Aporia)
| AI Observability
| 以色列
| 2019
| 使用多个专门的小语言模子 (SLM) 根据异常或行为的类型提供有针对性的评估。目次中的每种策略类型大概都依赖于自己的 SLM,以低耽误提供及时控制,并通过策略实施和监控实现运营管理。
|
Cranium
| | 美国
| 2022
| AI 运营管理平台通过组织共享信息的独特 AI 信托和安全中央,实现整个 AI 供应链的安全性、第三方性、合规性和信托。
通过扫描所有存储库、识别和标记相关目次,并根据大小和最近活动对结果进行优先排序,实现对 AI/ML 代码的可见性,以便在短时间内会集注意力。
|
Credo AI
| Credo AI
| 美国
| 2020
| Credo AI 提供专用的 AI 管理 GRC 平台,具有开箱即用的工作流程和管理内容,可帮助组织将其 AI 的开辟和使用与法规、尺度和最佳实践保持同等。Credo AI 平台与企业的 AI 基础办法集成,以创建会集式 AI 清单,并提供自动化 AI 风险评估和连续风险监控,以识别和缓解关键风险和合规性问题。
|
Databricks
| Databricks Unity Catalog
| 美国
| 2013
| Databricks 使用Unity Catalog在整个数据和 AI 生命周期中提供同一的安全性和管理,使组织可以大概在一个地方管理结构化和非结构化数据、ML 模子和 AI 功能。Unity Catalog通过会集访问控制、审计、ML 质量监控(包括公平性、毛病检测和 AI 得当性)、沿袭跟踪和模子发现将管理扩展到专有和开源模子,并自动执行敏感数据分类,在行和列级别实施细粒度安全性。
|
DataRobot
| DataRobot企业 AI 套件
| 美国
| 2012
| DataRobot 的 AI 管理框架可自动管理天生和猜测 AI 中的模子,并将其管理扩展到本地、边缘、远程装备和云。DataRobot通过自动文档、可自界说的报告以及内置的安全和合规性分析简化了对欧盟 AI 法案和 HIPAA 等法规的遵守,并根据需要通过及时和流式考核进行加强,以实现猜测和天生推理,以及用于本地和远程摆设的深度监控工具。
|
Daxa
| Pebblo
| 美国
| 2021
| Daxa 将设置时 AI 数据上下文与运行时数据访问控制相结合。它既支持 AI 管理和安全,又使用了以开辟人员为先的开源方法。
|
Fairly AI
| Fairly AI Governance, Risk and Compliance Management Platform for Enterprise
| 加拿大
| 2020
| Fairly AI 企业管理风险与合规管理平台采用多署理作为法官的评估框架,该框架采用颠末定性和定量风险与合规数据训练的“专家混淆”模子,帮助检测、管理和减轻 AI 风险。
|
HiddenLayer
| 人工智能安全
平台
| 美国
| 2022
| HiddenLayer 专注于保护 AI 和机器学习模子,提供传统网络安全解决方案所忽视的专业威胁检测、模子保护和对抗性攻击缓解。它集成到现有的 AI 管道中,在不影响性能的情况下提供安全性。
|
Holistic AI
| AI Governance Platform
AI Audits
AI Safeguard
AI Tracker
| 美国
| 2020
| Holistic AI的软件通过确保 AI 系统的透明度、公平性和可问责性,帮助组织管理 AI 风险。它们提供各种管理、安全和运行时分析工具,帮助最大限度地低落财务、法律和声誉风险。
|
IBM
| IBM watsonx.管理
| 美国
| 1911
| 与供应商无关:即使与第三方供应商一起构建和摆设,也可以管理 AI,包括整个生命周期的管理——从概念到开辟以及运行时。
涵盖 ML 和 GenAI 的综合功能可满足多种需求:AI 可观察性和监控、涵盖 AI 风险和法规服从性的风险管理,以及通过与IBM的 AI 安全和其他供应商集成实现的 AI 安全性。
|
Knostic
| | 以色列
| 2023
| Knostic界说、捕获和管理组织内各种脚色的主题级知情需求,这与传统的以数据为中央和以信息为中央的控制不同。Knostic的知情需求规则可用于查找过分共享的内容、逼迫执行每个用户/每个主题的护栏、对记录的交互中的知情需求违规发出警报,并确保 agentic-LLM 在用户的知情需求范围内运行。
|
Lakera
| Lakera人工智能安全平台
| 美国
| 2021
| Lakera AI 安全平台提供及时可见性和控制,以阻止威胁并管理署理。Lakera的AI 优先方法提供 AI 威胁检测并最大限度地进步署理性能。
|
Lasso Security
| | 以色列
| 2023
| Lasso Security是一个 GenAI 安全平台,它通过自主测试 LLM 应用程序、监控所有 GenAI 交互、及时检测风险和启用高级护栏来加强组织的安全态势。借助适用于应用程序和员工的 Lasso,组织可以连续测试和保护 GenAI 模子、应用程序、署理和聊天机器人的使用,同时保持合规性和安全性。
|
LatticeFlow AI
| | 瑞士
| 2020
| LatticeFlow映射内部和外部 AI 管理框架、法规和 AI 系统的交集,以便在企业情况中对风险进行建模。
LatticeFlow不停网络有关用例的技能和背景证据并将其毗连到 AI 控制,为解释和变革检测提供经验基础。
|
ModelOp
| 模子运营中央
| 美国
| 2016
| ModelOp的 AI 管理技能为所有 AI 计划(包括 GenAI、内部、第三方和嵌入式 AI 系统)提供端到端模子生命周期管理。通过使用自动化来逼迫合规,并与现有 IT 和 AI 投资相结合,ModelOp支持跨业务部分和团队的可扩展、有效管理。
|
Monitaur
| Govern and Automate
| 美国
| 2019
| Monitaur将各种尺度和法规同一到一个全面的通用控制库中,每个Monitaur控制都界说了一种风险,映射到一个模子开辟阶段,并规定了模子构建者和风险优点相关者应该做哪些工作来低落风险。在验证产品中,Monitaur还在某些情况下引入了合成数据,以进一步扩展对抗性和稳健性压力测试评估的测试范围和模拟场景。
|
Noma Security
| AI中型安全平台包括:
人工智能供应链安全
人工智能管理和安全态势管理
AI运行时保护
| 以色列特拉维夫
| 2023
| 全面覆盖整个生命周期的AI管理,包括AI供应链安全(包括Jupyter笔记本,模子注册表),AI运行时保护,AI红队和AI基础办法评估。
单一玻璃视图和大量集成用于进步运行时检测的正确性和仪表板的清楚度。
|
OneTrust
| 数据与人工智能管明白决方案
| 美国
| 2016
| OneTrust使用 GenAI 策略跨数据系统管理数据和 AI 项目。数据和 AI 管明白决方案通过自动化元数据发现、将书面策略转换为可执行数据策略和动态控制以及在整个 AI 生命周期(从计划到摆设)中嵌入管理来为 AI 准备数据。
|
Operant AI
| AI Gatekeeper
| 美国
| 2020
| Operant通过针对 AI 模子、AI 应用程序、AI API 和 AI 署理的发现、检测和自动防御功能,在运行时保护 AI 工作负载。Operant提供先进的 AI 数据保护功能,包括关键和敏感数据的在线阻止、自动编辑和数据肴杂。
|
Palo Alto
| AI运行时安全
人工智能访问安全
| 美国
| 2005
| AI 运行时安全发现、保护和监控 AI 生态系统(应用程序、模子、署理和数据)中的每个组件,免受特定于 AI 的威胁,并防止 AI 模子、应用程序和署理的数据泄露,从而保护它们免受滥用和攻击。
AI Access Security 提供超过 1000 个应用的最新目次,可全面了解公司的 GenAI 使用情况。其情境感知 AI 检测可防止敏感数据泄露给有风险的第三方 LLM。
|
Pillar Security
| Pillar 同一人工智能安全平台
| 以色列
| 2023
| Pillar AI Security 平台在所有运行时和开辟阶段为 AI 模子、应用程序和署理提供全面的安全性和管理,无论模子、版本或位置如何。它集成提供连续的库存发现、量身定制的对抗性测试、动态运行时防御、数据分类和每次交互(包括来自用户、数据集、管道、模子等的交互)的不可变日记记录。
|
Prompt Security
| Prompt for Employees
Prompt for AI Code Assistants
Prompt for Homegrown GenAI Applications
| 美国
| 2023
| 全面的可视性、运行时监控和策略实施,涵盖员工对 AI 的采用,包括Microsoft 365 Copilot和 AI 代码助手等企业应用程序,具有特别功能(例如代码扫描),也可用于定制的 GenAI 应用程序。策略包括内容考核、数据隐私和安全,使用小型语言模子、启发式方法和其他技能的组合来最大限度地减少耽误并提供敏感或不得当内容的即时编辑。
|
Protect AI
| Layer
Guardian
Radar
Recon
| 美国
| 2022
| Protect AI端到端 AI 安全平台,使客户可以大概满足模子开辟、应用程序测试、运行时安全和管理方面的安全需求。
客户可以使用现成的最佳扫描仪并毗连到现有的 MLOps 和安全工具,同时在一个平台内映射到常见的风险和安全框架,如开放全球应用安全项目 (OWASP) 、NIST 和 MITRE。
|
S2E
| Galene 人工智能
天生护盾
| 意大利
| 2008
| Generative Shield 提供 AI 管理功能,例如目次、自动文档、审计跟踪和测试,以及针对 AI应用程序和署理的 AI 运行时查抄和实施,包括意图对齐、异常和安全检测以及自动阻止/补救,所有这些都以欧洲法规为重点,例如欧盟 AI 法案和 GDPR。它可作为 SaaS 平台或本地使用,通过市场尺度 API 作为应用程序/署理与重要 LLM 推理服务和服务器之间的署理集成。
|
Securiti
| Securiti数据指挥中央
| 美国
| 2018
| Securiti数据指挥中央为 AI 系统提供全面的安全与管理,包括保护影子 AI、构建安全的企业 AI 应用以及保护嵌入在 SaaS 应用中的 AI。Securiti 使用独特的知识图谱,使用细粒度上下文来实施符合 Gartner 的 AI TRiSM 框架、OWASP Top 10 for LLM 以及欧盟 AI 法案和NSIT 人工智能风险管理框架 (NIST AI RMF)等合规法规的安全控制。
|
TrojAI
| TrojAI 防护
TrojAI检测
| 加拿大
| 2019
| TrojAI通过对模子进行渗出测试以及及时 AI 运行时保护,为 AI 管理和模子运行时查抄提供了一个平台。AI 管理产品通过 AI 渗出测试获得的更多背景信息为 AI 运行时保护提供信息,从而在保护 AI 模子行为方面提供更正确、更有效的控制。
|
WitnessAI
| Witness AI安全人工智能赋能平台
| 美国
| 2023
| WitnessAI与常用工具集成,可检测影子人工智能、对对话进行分类,并为包括 Copilots 在内的人工智能应用程序的用户提供及时保护。WitnessAI为数据保护和有害响应提供了强盛的防护步伐,同时可扩展以保护模子和聊天机器人免受越狱和不良行为的影响。
|
Zenity
| Zenity
| 美国
| 2021
| Zenity从构建时到运行时管理和保护 AI 署理,提供纵深防御方法,使用深度署理行为监控和意图破坏检测功能来实现可视性和自动风险缓解。Zenity不光仅提供输入和输出,还可以查看署理正在执行的所有操作,并将业务逻辑驱动的 AI 安全态势管理 (AISPM) 与及时 AI 检测和响应 (AIDR) 相结合,以缓解风险、确保合规性并最大限度地进步 SOC 和 AppSec 效率。
|
Zerotrusted.ai
| 人工智能防火墙
| 美国
| 2022
| 其运行时保护使用模子集成和 LLM-as-a-Judge 来进步 LLM 输出的可信度和可靠性,同时最大限度地减少耽误。
|
泉源:Gartner(2025 年 2 月)