安全话题,在人工智能(AI)行业一向备受关注。
尤其是诸如 GPT-4 如许的大语言模型(LLM)出现后,有不少业内专家号令「立刻暂停训练比 GPT-4 更强大的人工智能模型」,包罗马斯克在内的数千人纷纷起家支持,联名签署了一封公开信。
这封公开信便来自生命将来研究所(Future of Life Institute),该机构由麻省理工学院教授、物理学家、人工智能科学家、《生命 3.0》作者 Max Tegmark 等人连合建立,是最早关注人工智能安全问题的机构之一,其使命为“引导厘革性技能造福生存,制止极端的大规模风险”。
公开信息表现,生命将来研究所的顾问委员会成员阵容强大,包罗理论物理学家霍金、企业家马斯克、哈佛大学遗传学教授 George Church、麻省理工学院物理学教授 Frank Wilczek 以及演员、科学传播者 Alan Alda、Morgan Freeman 等。
日前,生命将来研究所约请图灵奖得主 Yoshua Bengio、加州大学伯克利分校计算机科学教授 Stuart Russell 等 7 位人工智能专家和治理专家,评估了 6 家人工智能公司(Anthropic、Google DeepMind、Meta 、OpenAI、x.AI、智谱)在 6 大关键范畴的安全实践,并发布了他们的第一份《人工智能安全指数陈诉》(FLI AI Safety Index 2024)。
陈诉表现,只管 Anthropic 得到了最高的安全性评级,但分数仅为“C”,包罗 Anthropic 在内的 6 家公司在安全实践方面仍有提升空间。
陈诉链接:
https://futureoflife.org/document/fli-ai-safety-index-2024/
关于这份陈诉,Tegmark 在 X 上以致一针见血地指出:Anthropic first and Meta last,即:Anthropic 的安全性最高,而坚持开源的 Meta 在这方面却垫底。但 Tegmark 也表示,“如许做的目标不是羞辱任何人,而是激励公司改进。”
值得一提的是,生命将来研究地点陈诉中写道,“入选公司的依据是其在 2025 年之前打造最强大模型的预期能力。别的,智谱的参加也反映了我们盼望使该指数可以或许代表全球领先企业的意图。随着竞争格局的演变,将来的迭代可能会关注不同的公司。”
6 大维度评估 AI 安全
据介绍,评审专家从风险评估(Risk Assessment)、当前危害(Current Harms)、安全框架(Safety Frameworks)、生存性安全计谋(Existential Safety Strategy)、治理和问责制(Governance & Accountability)以及透明度和沟通(Transparency & Communication)分别对每家公司举行评估,最后汇总得出安全指数总分。
维度 1:风险评估