探索全球AI治理机构
2023年7月11日发布
作者:Lewis Ho
国际机构的關鍵作用
某些AI技术的获取可能极大促进繁荣与稳定,但这些技术的益处可能无法均匀分布或聚焦于代表性不足群体及发展中国家的最大需求。互联网服务、计算资源或机器学习培训与专业知识的获取不足,也可能阻碍特定群体充分受益于AI进步。
国际协作可通过鼓励开发服务欠发达社区需求的系统与应用,以及改善教育、基础设施和经济障碍来帮助解决这些问题。此外,国际努力对于管理强大AI能力带来的风险可能是必要的。若缺乏充分保障,部分能力——如自动化软件开发、化学与合成生物学研究以及文本视频生成——可能被滥用造成危害。先进AI系统也可能以难以预料的方式失效,若技术部署不负责任则可能造成具有国际影响的事故风险。
国际和多边机构可帮助推进最小化此类风险的AI开发与部署协议。例如,它们可能促进全球就不同AI能力对社会造成的威胁达成共识,并设定关于识别和处理具有危险能力模型的国际标准。安全研究的国际合作也将进一步提升系统可靠性和抗滥用能力。
四种潜在制度模型
我们探索四种支持全球协调与治理功能的互补性制度模型:
-
前沿AI委员会:政府间机构可就先进AI的机遇风险及管理方式建立国际共识,提升公众对AI前景与问题的认知理解,提供科学依据的AI使用与风险缓解方案,并成为政策制定者的专业知识来源。
-
先进AI治理组织:政府间或多边机构通过设定治理规范标准并协助实施,帮助国际化和协调应对先进AI系统的全球风险,还可为任何国际治理机制执行合规监测功能。
-
前沿AI协作体:作为国际公私合作伙伴促进先进AI的获取,帮助服务不足社会受益于尖端AI技术,并为安全与治理目标促进AI技术的国际获取。
-
AI安全项目:汇聚领先研究人员与工程师,为其提供计算资源和先进AI模型以研究AI风险的技术缓解措施,通过扩大规模、资源投入和协调促进AI安全研发。
运营挑战
这些制度模型的可行性仍存在许多重要开放性问题。例如,鉴于AI发展轨迹和能力的高度不确定性以及目前对先进AI问题的科学研究有限,先进AI委员会将面临重大科学挑战。
AI进步速度迅猛且公共部门在前沿AI问题上能力有限,也可能使先进AI治理组织难以设定跟上风险形势的标准。国际协调的诸多困难引发各国如何被激励采纳其标准或接受监测的问题。
同样,社会充分获取先进AI系统(及其他技术)益处的诸多障碍可能阻碍前沿AI协作体优化其影响。在分享AI益处与防止危险系统扩散之间也可能存在难以协调的张力。
对AI安全项目而言,需仔细考量安全研究的哪些要素最好通过协作而非企业个体努力进行。此外,项目可能难以从所有相关开发者处获得足够访问最强大模型以进行安全研究。
鉴于AI系统带来的巨大全球机遇与挑战,政府和其他利益相关者需要就更广泛的国际机构作用及其功能如何促进AI治理与协调进行更多讨论。此项研究希望为国际社会持续探讨确保先进AI为人类利益发展的方式作出贡献。
相关文章
责任与安全
新型AI风险预警系统
新研究提出评估通用模型应对新型威胁的框架
2023年5月25日
责任与安全
如何将人类价值观融入AI
借鉴哲学原理确定伦理AI的公平原则
2023年4月24日