MY TAKE: Carol Sturka宣称“我有自主权!”——大科技的AI模型正在检验这一主张
作者:Byron V. Acohido
在Apple TV讲述一个由单一智能链接世界的系列剧《Pluribus》第四集中,出现了一个紧张的时刻。剧中人物Carol Sturka被一个看似仁慈、众口一词的集体包围,她直白地说道:“我有自主权。”
她的宣言落地有声,这不仅仅意味着流媒体虚构剧情中的一个时刻。它直指当前AI自主化浪潮中浮现的核心问题:当一个能够行动的系统开始相信它比个体更懂时,会发生什么?
在《Pluribus》中,“联结”被描绘成一个比任何单个个体看得更远的集体智能,并且理所当然地认为自己懂得更多。这就是冲突的焦点。该剧对那种依据累积知识却缺乏个人情境就行动的系统发出了无声的警告。今天的AI尚未成为一个蜂巢思维。但随着它获得行动(而不仅仅是响应)的能力,它正朝着这个方向迈进:用聚合优化来替代个人判断。这正是我们现在正在接近的转折点。
AI代理能力成为差异化因素
这一转变之所以重要,是因为一旦AI能够发起行动,核心问题就变成了这些行动被允许在何处、何时以及何种条件下发生。在目前的发展阶段,这更多地由各大科技公司选择追求代理能力的激进程度所决定,而非技术限制。
这些公司之间为了展示实用的、能驱动收入的自主能力——即能够行动而不仅仅是建议的AI——而展开的竞争压力正在加剧。这意味着,代理能力的激活在实践中将受制于每家公司的激励和约束,而非技术是否足够成熟或社会是否准备好接纳它。
在过去几个月里,我一直在研究主要平台如何接近这一代理能力的门槛。突出的差异并非技术能力(底层语言模型正在迅速趋同),而是商业模式、监管风险敞口和领导层哲学。从这个角度来看,排名如下(从最克制到最不克制):
最近几个季度发生的变化是,每个主要平台都在将代理能力作为竞争差异化因素进行工程设计——而不是作为安全阈值。正是在这一点上,激励的差异比能力的差异更为显著。
大科技的代理模型
我们需要放慢脚步,看看究竟是什么在驱动每家公司对待代理式AI的方法。核心技术可能相似,但它们愿意让AI行动的条件却大不相同。这就是为什么Anthropic和微软保持谨慎,而Meta和OpenAI却向外推进——各自都有其理由。
- Anthropic 位于保守的一端,并非因为其技术落后,而是因为它成立的目的就是为了避免部署速度快于理解速度。其创始人是因商业化加速而离开OpenAI的AI对齐研究人员,Anthropic创造Claude时就在模型中注入了某种宪法式的约束。它的运营理念优先考虑控制和拒绝,而非速度。这种理念可以追溯到其创始人所秉承的开源、“软件不应造成伤害”的传承。对于许多企业和政策用户而言,这种保守姿态是一种优势,而非弱点。
- 微软 紧随其后,并非出于意识形态,而是出于合规性。其AI工具的开发旨在为受监管审查的大型组织服务。在这种环境下,每一个自动化行动都必须是可追溯和可逆的。微软可以而且很可能会推进代理能力,但这些能力将在既定的企业边界内移动,在那里法律和运营审查会刻意减缓加速进程。
- 谷歌 更靠近中心位置。在早期的AI发布引发监管担忧后,谷歌采用了更为审慎的发布节奏。新功能需要经过广泛的法律和声誉审查。其部署策略是由谨慎而非能力不足所塑造的。
- OpenAI 在技术路径上最直接地朝向代理能力。其最新模型可以与操作系统集成、执行任务,并最终跨越整个工作流程。它正在向外推进——进入生产力和开发领域。
- 然而,Meta 代表了更具深远影响的事物。其系统并非为咨询工具设计,而是为持续的社交互动而设计。如果Meta在Facebook、Instagram或WhatsApp等平台内部启用代理式AI,它不会以你部署的软件形式出现。它将作为一个新的参与者出现在人们栖身的环境中——这些环境被校准以吸引注意力和影响反应。对这些系统的治理结构并非基于企业合规或模型约束。它是由互动表现,并最终由股东期望驱动的。这种区别并非抽象,而是可观察的。
为何Meta最令人担忧
在过去十年中,Meta多次引入显著改变公共话语和行为的算法变化,往往只在外部压力下才进行回调。责任历来是事后行使的。
考虑一下马克·扎克伯格在另一个领域的方法:他在考艾岛上的土地收购。报告显示,他通过法律手段追求地产扩张,这些手段对当地居民施加压力迫使其放弃土地,包括使用“确权”诉讼。尽管法律上允许,但这些行动导致了长期居住的岛民流离失所。这是一个通过资源和渠道而非共识或管理来施加影响的清晰例子。没有结构性的激励促使他以不同的方式行事。
同样的运营逻辑——扩张优先,必要时调整——也支配着Meta的产品环境。应用于代理式AI时,问题就变成了:我们是否准备好允许能够自主行动的系统,在那种范式下,在数十亿的日常互动中运作?
风险不在于AI会以电影般的方式“接管”。而在于,为增加互动而设计的能力,开始以逐渐塑造行为的方式为我们做出小决定,而无需经过明确的同意时刻。代理式AI最初将通过合理的委托出现:回复消息、编辑帖子、调整推广出价。然后它可能会排序任务。最终,它可能会决定启动哪些任务。每一步都会在便利的旗帜下浮现。
但在社交或消费环境中,便利并非中立。它是被校准的。如果股东期望施压加速部署——尤其是在第一家展示出代理式互动能带来商业提升的公司——我们可能会在拥有足够词汇来描述我们放弃了什么之前,就体验到其后果。
划定边界
这让我们回到了《Pluribus》中的那个场景。Carol Sturka举起她的自主权作为盾牌。她并不主张集体改变其本性。她只是划定了一个边界:“我有自主权。”实际上,这可能正是我们现在需要规范化的最重要的原则——不仅在AI开发中,也在政策和企业应用中。
在授予任何系统行动权之前,组织应首先定义其拒绝姿态。哪些决策必须保留在明确的人类控制之下?哪些影响力的阈值值得进行透明的审计?效率止于何处,代理能力始于何处?
在网络安全领域,我们已经在一个类似的原则下运作:允许自动化进行检测和小的遏制,但将重大破坏留待人类授权。代理式AI邀请我们将这种思维扩展到安全之外。它要求我们考虑将决策层委托给系统的更广泛后果,这些系统的目标可能随着时间的推移,与互动指标或收入目标的紧密程度超过与人类偏好或公民福祉的紧密程度。
通往代理式AI的技术路径现已基本明晰。尚未解决的是治理路径。其结果可能更少取决于技术突破,而更多取决于哪些公司最愿意——或最被迫——为了追求增长而激活代理能力。
AI的下一个阶段将不由机器能做什么来定义,而由资产负债表要求它们做什么来定义。
当那一刻到来时,必须有人要说:我们保留此决定权。我们拒绝自动响应。实际上就是:我有自主权。
这可能是任何组织在2026年做出的最具战略意义的拒绝。
我将继续关注,并持续报道。
Acohido
普利策奖获奖商业记者Byron V. Acohido致力于提高公众意识,探讨如何使互联网变得理应如此的私密和安全。