Anthropic提出前沿AI开发透明度框架
Anthropic呼吁为大型AI开发者创建AI透明度框架,以确保问责和安全。
“随着模型的进步,我们拥有前所未有的机会加速科学发现、医疗保健和经济增长。如果没有安全和负责任的发展,一次灾难性失败可能会使进展停滞数十年。我们提出的透明度框架提供了一个实用的第一步:公开可见安全实践,同时保持私营部门的敏捷性,以提供AI的变革潜力,”Anthropic在一篇文章中写道。
因此,它提出该框架,希望可以在联邦、州或国际层面应用。框架的初始版本包括六个核心原则。
首先,AI透明度要求仅适用于最大的前沿模型开发者,允许创建低风险模型的较小初创公司豁免。它没有在此指定具体的公司规模,并欢迎初创社区的输入,但表示在Anthropic的内部讨论中,一些示例截止点可能是收入1亿美元或以下,或研发和资本支出10亿美元或以下的公司。
第二,前沿模型开发者应创建一个安全开发框架,详细说明他们如何评估和缓解不合理风险,包括化学、生物、放射性和核危害的创建,以及由错位引起的危害。
第三,该安全开发框架应向公众披露,以便研究人员、政府和公众可以了解当前部署的模型。敏感信息允许被编辑。
第四,系统卡和文档应总结测试和评估程序、结果和缓解措施。系统卡应与模型一起部署,并在模型更新时更新。同样,系统卡中的敏感信息允许被编辑。
第五,Anthropic表示,AI实验室就其框架合规性撒谎应为非法。通过建立这一法律基础,现有的举报人保护将适用,执法资源可以适当分配给从事不当行为的公司。
第六,应有一套最低标准,可以随着技术发展而演变。根据Anthropic的说法,AI安全和安全实践仍处于早期阶段,因此任何框架都应能够随着最佳实践的出现而适应。
“我们的方法故意避免过于规定性。我们认识到,随着AI科学的不断发展,任何监管工作都必须保持轻量和灵活。它不应阻碍AI创新,也不应减慢我们实现AI好处的能力——包括拯救生命的药物发现、公共福利的迅速交付和关键的国家安全功能。鉴于评估方法由于技术变革的步伐在几个月内就会过时,政府强加的刚性标准尤其会适得其反,”Anthropic写道。