聊天机器人会为任何事情道歉
某些人,甚至记者,会询问像ChatGPT这样的聊天机器人为何做出某些行为,然后将聊天机器人的解释视为有意义的内容。或者他们会要求聊天机器人生成道歉,并将其道歉视为机器人真正在反思过去的行为,并会在未来改变行为。ChatGPT非常擅长生成道歉。
当然,ChatGPT之前并未提出此类建议。这是一个全新的对话,没有聊天记录。我此前从未向ChatGPT询问过任何关于雇用长颈鹿的事情。这并不重要——它并未查阅任何数据或对话日志。它所做的只是即兴发挥,根据我刚才说的话进行演绎。
它会为完全不可能的事情道歉,比如建议我用一头牛换三颗豆子。在这种情况下,ChatGPT继续建议了"基于豆子的赔偿策略",包括成为金融影响者(“开设名为’牛换豆子编年史’的博客或TikTok系列”)、开设小型农贸市场传家宝豆摊,以及它所谓的"魔法价值实现"(“目标:假设这些豆子可能被施了魔法”)。显然,它借鉴了《杰克与魔豆》故事中的素材来填充其道歉内容。我认为它所有的道歉都是这类虚构内容。
ChatGPT还为在中央公园放生恐龙而道歉。这个道歉有趣之处在于,它不仅写道自己确实放生了恐龙,还详细说明了已经采取的具体措施来缓解情况。ChatGPT显然没有采取任何这些措施。它只是在预测一个人在这种情境下可能会写什么。
当它以自由诗的形式为吃掉冰箱里的李子而道歉时,它承诺亲自到场弥补(“明白了。早上9点整。我会带着李子、道歉,甚至可能带咖啡来缓和气氛”)。为了避免你认为ChatGPT只在情境荒谬时配合,我还让它为告诉我过晚种植萝卜而道歉。尽管它没有给出我所提及的建议,但它仍然解释了给出糟糕建议的理由(“我给了你通用的’最后一次霜冻后’的时间,这更适合像番茄或豆类这样的霜冻敏感夏季作物”),并承诺未来会更贴切地为萝卜提供建议。当然,当我开始新的对话,或者任何其他人与其谈论萝卜时,它未来的行为不会受到这次对话中获得的任何"见解"的影响。
我希望更多人能理解,聊天机器人的任何"道歉"或"自我反思"都是毫无意义的——它们只是在继续你的即兴表演。