人工智能(AI)的安全题目,正从前所未有的关注度在全球范围内被讨论。
日前,OpenAI 团结首创人、首席科学家 Ilya Sutskever 与 OpenAI 超等对齐团队共同领导人 Jan Leike 相继脱离 OpenAI,Leike 甚至在 X 发布了一系列帖子,称 OpenAI 及其领导层忽视安全而偏爱光鲜亮丽的产品。这在业界引起了广泛关注,在一定程度上凸显了当前 AI 安全题目的严峻性。
5 月 21 日,图灵奖得主 Yoshua Bengio、Geoffrey Hinton 和姚期智团结国内外数十位业内专家和学者,在权威科学期刊 Science 上刊文,呼吁世界各国领导人针对 AI 风险接纳更有力的办法,并警告说,“近六个月所取得的希望还不够”。
他们认为,AI 的无节制发展很有大概最终导致生命和生物圈的大规模损失,以及人类的边沿化或灭尽。(点击检察详情)
在他们看来,AI 模型的安全题目,已经上升到足够威胁人类将来生存的程度。
同样,AI 模型的安全题目,也已经是可以影响每一个人、每一个人都有必要关心的话题。
**5 月 22 日,注定是人工智能史上的一个巨大时刻:**OpenAI、谷歌、微软和智谱AI 等来自不同国家和地区的公司共同签署了前沿人工智能安全承诺(Frontier AI Safety Commitments);欧盟理事会正式批准了《人工智能法案》(AI Act),全球首部 AI 全面羁系法规即将见效。
再一次,AI 的安全题目在政策层面被提及。 人工智能首尔峰会“宣言”
在以“安全、创新、包容”为议题的“人工智能首尔峰会”(AI Seoul Summit)上,来自北美、亚洲、欧洲和中东地区的 16 家公司就 AI 开发的安全承诺告竣一致,共同签署了前沿人工智能安全承诺,包罗以下要点:
确保前沿 AI 安全的负责任治理布局和透明度;
基于人工智能安全框架,负责任地阐明将怎样权衡前沿 AI 模型的风险;
创建前沿 AI 安全模型风险缓解机制的明白流程。
图灵奖得主 Yoshua Bengio 认为,前沿人工智能安全承诺的签署“标记着在创建国际治理制度以促进人工智能安全方面迈出了告急一步”。
作为来自中国的大模型公司,智谱 AI 也签署了这一新的前沿人工智能安全承诺,完整签署方名单如下:
对此,OpenAI 全球事务副总裁 Anna Makanju 表示,“前沿人工智能安全承诺是促进更广泛地实行先进 AI 体系安全实践的告急一步。” Google DeepMind 总法律顾问兼治理主管 Tom Lue 说道,“这些承诺将有助于在领先开发者之间创建告急的前沿 AI 安全最佳实践。” 智谱AI 首席实行官张鹏表示,“陪同着先进技术而来的是确保 AI 安全的告急责任。”
日前,智谱AI 也受邀表态 AI 顶会 ICLR 2024,并在题为“The ChatGLM’s Road to AGI”的主旨演讲中分享了他们针对 AI 安全的具体做法。
他们认为,超等对齐(Superalignment)技术将协助提拔大模型的安全性,并已经启动了雷同 OpenAI 的 Superalignment 筹划,希望让呆板学会自己学习、自己判断,从而实现学习安全的内容。
总的来说,这一研究为偏好数据缺失情况下的对齐(如 RLHF 方法)提供了一种新的方法。在偏好数据标注代价昂贵且难以获得的情况下,可以利用未标注的 SFT 数据构建语法偏好数据,通过增长负样本的数量来补充因正样本不敷造成的性能损失。 欧盟理事会正式批准《人工智能法案》
同日,欧盟理事会也于同日正式批准了《人工智能法案》(AI Act),这是全球首部 AI 全面羁系法规,这一具有里程碑意义的人工智能法规将于下月见效,目前仅实用于欧盟法律范围内的领域,或将为商业和一样平常生活中使用的技术设定一个埋伏的全球基准。
“这部具有里程碑意义的法规是世界上第一部此类法规,它解决了一个全球性的技术挑战,同时也为我们的社会和经济创造了机遇,” 比利时数字化大臣 Mathieu Michel 在一份声明中说。
这一综合性的 AI 立法采用“基于风险”的方法,意味着对社会造成伤害的风险越高,规则就越严酷。例如,不构成体系性风险的通用目的 AI 模型将负担一些有限的要求,但那些具有体系性风险的则需要遵守更严酷的规定。
对违反《人工智能法案》中行为的罚款,该法案设定为违规公司前一个财年全球年营业额的百分比或预定的金额,以较高者为准。
如今,无论是小到科技公司,还是大到政府机构,都已经将预防、解决 AI 安全题目提上日程。正如牛津大学工程科学系教授 Philip Torr 所言:
“在上一次人工智能峰会上,全世界一致认为我们需要接纳办法,但现在是时间从模糊的建议变化为具体的承诺了。”