面对AI大模型所带来的安全风险,亟需从技能创新、伦理规范、法律法规等多个层面开展管理。现在,欧盟委员会提出了《人工智能白皮书》,经济互助与发展构造(Organization for Economic Cooperation and Development,OECD)发布《人工智能原则》等[4],旨在开展AI管理框架和尺度工作。我国也先后推出《互联网信息服务算法推荐管理规定》和《互联网信息服务深度合成管理规定》,目标是加强算法科研管理,规范智能技能供给,健全算法推荐机制、算法安全体系和促进深度合成技能安全可信发展,推进算法综合管理、深度合成管理、净化网络空间;新版《网络安全审查办法》《生成式人工智能服务管理暂行办法》和《网络暴力信息管理规定》,目标是探索AI管理法治路径、以安全助发展和以管理促创新,形成面向AI期间的数据管理新生态,以良法善治为清朗网络空间构建法治屏障。这些管理举措形成以下共识:强调要加强对AI系统的风险管控,建立健全的安全评估机制,确保AI沿着有利于人类社会的方向发展。技能层面要加强对GAI大模型的可解释性研究,开辟可供审计的模型机制,提升模型对恶意数据和对抗攻击的鲁棒性,同时还应加强跨学科交叉融合,切实保障模型练习数据的安全和隐私。法律法规方面应加速建立适应AI期间特点的法律体系,明白规定AI系统的权责界限,严厉打击利用AI从事危害社会的违法犯罪举动。伦理规范方面要加强AI伦理研究,建立以人为本、安全可控的根本原则,并纳入到AI系统的计划开辟全过程。