二是加强模型的安全性,包括举行对抗样本检测和提升模型的鲁棒性,以应对大概的攻击和诓骗行为;让不同的模型适用于不同国家的法律条款,以及针对各种对抗攻击举行防御性训练。对于对用于大语言模型开发的数据 举行人工标注的,开发主体应当制定清晰、具体、可操作的标注规则,对标注人员举行必要的培训,抽样核验标注内容的正确性。保障和规范 AI 的训练过程,及时发现问题,及时止损并调解模型参数。避免因源数据本身存在争议、泉源不可信或素材违法或侵权,而生成虚伪、歧视或不公平的结果。
四是提高算法的可表明性和透明度,使用可视化技术和交互式界面来展示算法的决策过程。创建审查和评估机制来消除算法黑盒问题,促进负责任的 AI 的开发、部署和应用,提高生成式 AI 的安全性、可表明性和可问责性,以更好地防备风险。
大模型已来,要在不确定性中寻找确定性。正如加州大学伯克利分校教授 Jacob Steinhardt 所言:“呆板学习的步伐太快了,模型的本领提升每每比预期更快,但其安全属性的希望却比预期要慢,我们需要从现在开始构建未来十年的呆板学习体系的发展图景,防范大模型期间的 AI 风险。同时,我们要认真思考 AI 与人类的关系,以实现人机互助和共生发展,而不是简单地用 AI 取代人类。”
03 AIGC 技术的科林格里奇逆境