重审AI泡沫 | Daniel Miessler
为什么重大崩盘、AGI和数百万工作岗位被取代并不互斥
#ai #business #economy #investing #technology #future
我曾发表短文(及视频)讨论AI不应被视为泡沫,因为泡沫是种错误信念——一旦破灭就无人再相信。但如我在那篇文章注释中所说,这属于语义争论,如果这个术语已被用作"对某领域过度投资导致多数投资者亏损"之类的含义,那么争论已无意义。
事实上,争论确实已经结束。这个术语已在金融行业广泛使用,某个持有"更准确"定义的技术宅男无法改变现状。尽管我更喜欢自己的定义,但这已经不重要。定义由社群共同塑造且始终动态演变。
现在人们开始指出过度投资已达疯狂程度,《市场观察》文章称当前泡沫规模是互联网泡沫的17倍、次贷危机的4倍。这很惊人。
我并非该领域专家,无法判断其真实性,但想强调并区分几个我认为重要的观点。Dwarkesh现在也采纳了我的定义。
首先,AI技术不会消失,我完全相信我们正朝着在2028年前可行地取代人类知识工作者的目标迈进——这就是我对AGI的定义。甚至可能提前到2026或2027年。
正如Sholto在最近播客中谈到的,目前主要实验室的AI系统构建方式…非常糟糕。效率极低。基本上是一系列临时方案的串联。换句话说,在AI创建/优化过程的每个环节都存在可供挖掘的"松弛空间"。另一种表述是,我们没有理由认为AI在多维度上已接近优化状态。
但这并不否定泡沫的存在。反而使其更危险,因为被追逐的"白鲸"确实真实存在。
未来3-10年内,只有少数投资、初创企业和公司能存活下来,其余将因缺乏理解、远见、运气或无数其他原因而消亡。
最终结果可能是——假设20%的人会说"我早说过AI很厉害!",他们直冲云霄;而80%的人则会说"结果证明这完全是垃圾,我失去了一切"。
我希望大家理解的是,这些情况并不互斥。所有情景可能同时发生:
- 2028年前实现AGI(取代人类知识工作者)
- 2030年前减少数百万工作岗位
- 谷歌、OpenAI、Anthropic、英伟达等公司更加富有
- 多数AI初创公司崩溃
- 部分AI初创公司蓬勃发展,用1-5%的劳动力取代传统公司
- 许多传统公司因AI实施过慢而被淘汰
- 许多传统公司最终实施AI并存活
- 多数知识工作者面临学习AI和降本增效的巨大压力
- 部分人将永远失去就业能力
- 部分人将获得比以往更好的就业机会和收入
这不是非此即彼的选择,而是混合状态。
那么为什么要指出这点?我强调这个是因为上述10种叙事都可能——且经常——被人们单独采纳并排斥其他观点。
人们喜欢选择其中一个并将其奉为信仰。
“将会出现大规模崩盘”——没错,正确。 “AGI可能很快实现,对知识工作将是噩梦”——是的,同样正确。
问题在于,选择其中一种观点的人往往会本能地反对其他观点,仿佛每次只能发生一种情况。
这导致叙事出现两极分化:“两年后社会将完全不同"和"你可以安全忽略它”——如果数百万人相信这些极端观点,都会产生各自的问题。
不要只选一个观点。坦然接受复杂性。所有这些都可能发生。
问题在于每种情况会发生多少。 以及何时发生。
注记
甚至未提及ASI,否则就变成2+2=5的玄学讨论了。