AI安全与开源模型监管之争

本文探讨AI模型许可与监控机制的潜在风险,分析过度监管可能导致权力集中与社会倒退,主张通过开源协作和用途监管而非开发限制来应对AI安全挑战,保持技术发展的开放性与社会韧性。

AI安全与启蒙时代的倒退

摘要

关于严格AI模型许可与监控的提案可能适得其反,以不可持续的方式集中权力,并可能逆转启蒙时代的社会成果。在保护社会与赋能社会自我保护之间需要微妙平衡。应倡导开放、谦逊和广泛磋商,制定符合原则和价值观的应对措施——这些措施可随着我们对这项技术的深入了解而不断演进。

执行摘要

人工智能发展迅猛,我们尚不清楚其可能达到的极限。某机构CEO认为AI可能"捕获宇宙所有未来价值的光锥",但事情可能出错,有专家警告"AI带来的灭绝风险"。

这导致许多人提出AI监管方法,包括白皮书《前沿AI监管:管理新兴公共安全风险》(简称FAR)及欧盟AI法案议会版本,其核心是:

  1. 制定AI模型开发与部署标准
  2. 建立确保符合这些标准的机制

然而其他专家反驳称:“对生存风险的过度关注…挤占了更紧迫问题的讨论空间,并隐性地给关注其他当前风险的研究人员带来社会压力。”

权力集中之路

更先进的AI可用于改进AI本身。某中心已使用AI改进数据中心能耗、创建更好的神经网络架构,并开发更好的参数优化方法。随着模型能力增强,研究者将找到更多使用它们改进数据、模型和训练过程的方法。

拥有完整模型访问权限者能比没有者更快更好地构建新模型。原因包括他们能充分利用微调、激活等强大功能,以及直接研究和修改权值的能力。这种反馈循环导致集中化:大公司变得更大,其他参与者无法竞争。

开源与AI启蒙新时代

与控制和安全确定性的渴望相反,我们应再次承担数百年前承担的风险:相信人性和社会的力量与善良。正如启蒙思想家提出"如果每个人都接受教育?如果每个人都有投票权?“等难题,我们应问"如果每个人都能获得AI的全部能力?”

模型只是软件——体现为代码的数学函数。当我们复制软件时,通常不称之为"扩散"(如FAR所述),这个词通常与核武器关联。软件可自由复制,这激发了巨大的开源运动,将这种共享视为道德善举。

首要原则:不造成伤害

FAR总结称"关于应对前沿AI模型挑战的最佳监管方法的不确定性不应阻碍立即行动"。但也许应该阻碍。AI政策专家建议:不要急于采取监管行动。

监管机构或许应考虑希波克拉底的医学指导:“首先,不造成伤害”。医疗干预可能有副作用,治疗有时可能比疾病更糟。监管干预也是如此。

启蒙时代的脆弱性

在人类历史的大部分时期,未来是可怕的、不安全的、未知的。我们以最简单明显的方式回应:集体信任比我们更强大的他人来保护我们。大多数社会将教育和权力等危险工具限制在少数精英手中。

但随后发生了变化。西方出现了一个新理念:如果有另一种安全方式:信任整个社会的整体善良,而非信任强大的精英?如果每个人都能接受教育?拥有投票权?获得技术?这就是启蒙时代。

现在既然我们许多人生活在自由民主国家,很容易忘记这是多么脆弱和罕见。但我们可以看到世界各国正在滑向威权领导人的怀抱。

明确一点:我们没有被攻击。现在不是放弃我们朝着平等和机会取得的来之不易的进步的时候。没有人能保证你的安全,但我们可以共同努力,借助AI建立一个为所有人服务的社会。

本文基于对前沿AI监管提案的红队评估,与70多位专家进行讨论并参考300多篇学术论文,旨在促进社会对AI未来的全面参与和知情决策。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计