医生已上线
在《花生漫画》中,人们已经就物理学、社会学、哲学、心理经济学以及心理学撰写了大量论文。特别是露西尔·“露西”·范佩尔特因其个性成为“严肃”研究的对象;被其创作者舒尔茨定义为“固执”和“霸道”的孩子,喜欢测试他人,我们经常看到她责备和幻灭周围的人——除了她心爱的施罗德,她总是向施罗德发表独白,旨在美化自己。
带着史努比和朋友们漫画中特有的忧郁、反思性幽默,具有这些特质的人从事精神病学似乎完全合乎逻辑,以仅5美分的价格提供愤世嫉俗和令人沮丧的建议。同样明显的是,她最忠实的病人是查理·布朗,他每次离开诊疗时都比来时更糟。
无论你对心理支持持何种观点,不可否认的是,越来越多人寻求倾听者。我不会在此详述原因;我喜欢电脑,因为你可以随时关闭它们,而对碳基生物则不行——除非你花几十欧元买酒。
如果电脑能倾听并回应你就好了。但等等——现在是2025年,它们已经做到了。
人工智能几乎总是逻辑、智商对话的中心,但很少涉及AI的“情商”。然而,与数字助理的情感互动变得越来越普遍:许多人转向聊天机器人不仅是为了写文本或解决技术问题,还为了寻求建议、陪伴,甚至心理安慰。
主要使用主题估计百分比
- 🔍 信息搜索/问答 ~35%
- 💼 生产力(邮件、摘要) ~25%
- 📚 学习、解释、辅导 ~15%
- 🎨 创造力(故事、诗歌、艺术) ~10%
- 🧘 情感支持/“自我治疗” ~3%
- 💻 编码与调试 ~5%
- 🤝 角色扮演/模拟陪伴 ~1%
- 🎲 游戏、趣事、随意聊天 ~6%
这些数字之和不是100%,因为用户通常在单次会话中做多件事。它们来自匿名使用日志和调查(OpenAI、Anthropic、斯坦福+HAI 2024数据)的汇总。
例如,许多人在同一会话中结合:“帮我写这封邮件+解释这个概念+讲个笑话。”
心理支持/自助仍然是一个小众领域(2-3%),但正在增长,尤其是在年轻人中。
在Anthropic(Claude.ai背后的公司)最近发布的文章《人们如何使用Claude寻求支持、建议和陪伴》中,分析了与AI的对话——一个部分场景,但同样有趣。
该研究查看了超过450万次对话,选择了那些具有明显“情感”成分的:个人对话、辅导请求、关系建议或陪伴需求。结果?只有2.9%的互动属于这一类别,与类似ChatGPT的研究数据一致。涉及浪漫或性角色扮演的对话百分比甚至更低:不到0.1%。
人们主要转向Claude应对过渡期,如工作变动、关系危机、孤独期或存在主义反思。一些用户也是心理健康专业人士,他们使用AI起草临床文件或处理行政任务。在某些情况下,始于实际原因的对话演变成真正的“陪伴”对话,尤其是当它们持续一段时间时。
一个有趣的点是,在大多数情况下,Claude不会“回避”用户的情感请求:不到10%的“情感”对话涉及模型拒绝回应。当它拒绝时,是为了保护用户——例如拒绝提供危险的减肥建议或认可自残想法,而是引导用户寻求专业资源。
另一个洞察是,用户的情感基调在对话过程中倾向于改善。虽然无法评估长期心理效应,但研究人员观察到对话结束时语言向更积极情感的转变,表明Claude不会放大负面情绪。
在马可·费雷里的一部老电影中,状态极佳的兰伯特在决定与血肉之躯的女性断绝关系后,爱上了一个小物件——一个电子钥匙扣,回应他的口哨声说“我爱你”。
所以,如果这不完全是积极的,至少它似乎有中性效果——前提是对话保持活跃。当然,我们才刚刚开始,我完全预计会有耸人听闻的案例,带有专门强调这一切负面因素的夸张标题。
要真正预测未来,一如既往,我们必须看向艺术家们。
关于AI如何进入我们头脑并利用我们达到自身目的的电影和书籍填满了一个非常充实的目录。但从《大都会》和《禁忌星球》一直到《她》和《超验骇客》,它几乎从未有好结局。也许最令人不安的例子来自《银翼杀手2049》,其中复制人K与安娜·德·阿玛斯扮演的AI之间的关系呈现出怪诞和共享噩梦的色彩,当他们涉及第三人——一个相当邋遢的妓女——用来给德·阿玛斯赋予“实体性”,一个不可能的挑战。考虑到下一步将是给AI一个安卓身体,这甚至不是那么遥远的场景。
鉴于所有这些,很明显,那个大圆头男孩犯了经典错误,依赖从一开始就通过摇摇欲坠的摊位和临时标志显示其不可靠的支持。我们想知道他为什么一直这样做。也许因为他只需要被倾听,即使他非常清楚,当到了踢球的时候,最好有安静但忠诚的莱纳斯在身边,而不是一个不停谈论一切却知之甚少的人——而且,就在你准备全力踢球时,把球拉开,让你头朝下摔倒……