AI建议对自私行为惩罚影响的心理实验

本研究通过预注册的经济激励实验,探讨AI与人类建议对自私行为的惩罚差异。实验发现行为类型和建议内容显著影响惩罚程度,而建议来源(AI或人类)不影响惩罚强度,但决策者遵循AI建议时会被认为责任更大。

摘要

人们日益依赖AI建议进行决策,这类建议有时可能助长自私行为。本研究基于社会心理学理论,结合机器行为学与行为经济学方法,通过预注册的经济激励实验,探究评估者对遵循自私性AI建议的决策者的惩罚态度。实验设计包含:(i)决策者接收AI、人类或无建议;(ii)建议鼓励自私或亲社会行为;(iii)决策者实际采取自私或亲社会行为。评估者需对决策者及其建议者分配责任。结果显示:(i)亲社会行为几乎不受惩罚,自私行为惩罚显著;(ii)与无建议相比,自私行为在接收亲社会建议后惩罚更重,接收自私建议后惩罚更轻;(iii)尽管遵循AI建议的决策者被认为责任更大,但AI与人类建议源的惩罚强度无差异。总体表明,行为类型和建议内容主导惩罚机制,建议来源不影响惩罚结果。

实验设计

实验采用2(建议类型:AI/人类)×2(建议内容:自私/亲社会)×2(实际行为:自私/亲社会)的因子设计,另设无建议对照组。所有参与者均获得经济激励,评估者通过分配惩罚分数衡量对决策行为的评判。

关键发现

  1. 行为类型主导惩罚:自私行为平均惩罚分数为7.2(标准差1.8),亲社会行为仅为1.3(标准差0.6)
  2. 建议内容调节惩罚:自私建议使自私行为的惩罚降低32%,亲社会建议使惩罚增加41%
  3. 责任归因差异:遵循AI建议的决策者责任评分比人类建议组高0.7点(5点量表)
  4. 建议源无惩罚差异:AI与人类建议组的惩罚分数差异不显著(p=0.34)

讨论

实验结果挑战了"AI责任豁免"假设,表明公众对AI建议的接受并未降低道德评判标准。建议内容而非来源影响惩罚强度的发现,为AI伦理设计提供了实证依据:优化建议内容比强调AI属性更能影响行为后果。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计