为什么AI正在让我们失去思考能力(并非你想象的方式)
世界热爱AI。近10亿人正在使用某机构的产品——这仅仅用了两年时间。这是硅谷的经典模式:打造卓越产品,降低使用成本,让人们产生依赖,然后寻找盈利模式。
我们热爱AI是因为它提供了前所未有的认知捷径。但对大多数人而言,这种趋势不会有好结果。我们会先让AI接管部分任务,很快发现它包办了所有工作。最终我们将失去思考能力、工作岗位和发展机会。
但事情不必如此发展。以下是看清前路并选择不同路径的方法。
终结的开始
2023年3月,作者首次使用ChatGPT。如今每天都会使用ChatGPT或Claude。AI使脑力工作更快速高效,但同时也导致了认知惰性。
过去需要仔细检查AI生成的草稿,而现在90%的情况下AI都能提供良好的初稿,导致检查其工作的动力逐渐消失。
一年前,作者认为劳动力将分为"使用AI者"与"未使用AI者"。如今意识到这个观点是错误的。五年内,所有人都将使用AI。真正的分界线在于:是管理AI的人,还是将思考外包给AI的人。
外包如何削弱我们的思考能力
人类始终在转移认知负荷。书籍出现之前,吟游诗人需要背诵整部《伊利亚特》。如今技术成为大脑的延伸,使我们能够将数学计算、导航和笔记记录等工作外包。
AI的不同之处在于它能处理几乎任何认知任务,且显得高效。AI外包起初是无害的:让AI起草邮件,它做得很好并节省10分钟;接着让它制定演示文稿大纲,同样出色完成。
当开始将其用于更复杂的任务(如制定策略)时,就会逐渐依赖AI完成工作, slowly地,个人技能开始退化。
某中心与卡内基梅隆大学发布的研究表明,生成式AI会降低批判性思维能力。当知识工作者相信AI的输出时,他们更不愿意动用自身大脑。
信任AI的人(如作者)自认为是事实核查者。但存在两个问题:1)高估了自己识别AI错误的能力;2)跳过事实核查的诱惑越来越强。
AI驾驶员与乘客
未来10年,知识工作者将分为两类:AI驾驶员和AI乘客。
AI乘客乐于将认知工作委托给AI。他们将提示粘贴到ChatGPT中,复制结果并作为自己的成果提交。短期来看,他们会因工作效率提高而获得奖励。但随着AI在较少人类监督下运作,乘客终将被视为冗余人员,因为他们对AI的输出没有增值贡献。
AI驾驶员则坚持指导AI。他们将AI输出作为初稿,严格检查其工作,有时甚至会关闭AI,留出时间独立思考。
长期来看,这两类人之间的经济差距将急剧扩大。AI驾驶员将获得不成比例的财富份额,而乘客则变得可替代。
如何成为AI驾驶员
通过以下方式成为AI的主导者:
从熟悉领域开始:在已有专业知识的领域使用AI,批判性审视其输出 进行对话而非直接索要答案:不要问AI"我们的营销预算该怎么办?",而是提供约束条件、输入参数和选项,与其辩论 保持高度警惕:积极参与,不假定输出足够好,挑战自我询问"这是个好建议吗?" 实践积极怀疑:持续用自身观点质疑AI:“这是否低估了该项目的风险?” 抵制将所有初稿外包:空白页面令人畏惧,但对激活大脑至关重要 做出最终决定并承担责任:AI应协助每个中高风险决策,但不做最终决定。以人类身份对自己的决策负责
心智不应被浪费
现在你拥有一个24小时待命、具备任何领域"专业知识"的思考伙伴。但你也站在十字路口。你将看到许多同事选择退出"主动思考",将决策外包给AI。许多人直到认知能力退化时才意识到问题,而那时已很难挽回。
不要成为这样的人。使用AI来挑战和加强你的思维,而非替代它。
问题不在于"你会使用AI吗?",而在于"你想成为哪种AI用户:驾驶员还是乘客?"