摘要
人们日益依赖AI建议进行决策,这类建议有时可能助长自私行为。本研究基于社会心理学理论,结合机器行为学与行为经济学方法,通过预注册的经济激励实验,探究评估者对遵循自私性AI建议的决策者的惩罚态度。实验设计包含:(i)决策者接收AI、人类或无建议;(ii)建议鼓励自私或亲社会行为;(iii)决策者实际采取自私或亲社会行为。评估者需对决策者及其建议者分配责任。结果显示:(i)亲社会行为几乎不受惩罚,自私行为惩罚显著;(ii)与无建议相比,自私行为在接收亲社会建议后惩罚更重,接收自私建议后惩罚更轻;(iii)尽管遵循AI建议的决策者被认为责任更大,但AI与人类建议源的惩罚强度无差异。总体表明,行为类型和建议内容主导惩罚机制,建议来源不影响惩罚结果。
实验设计
实验采用2(建议类型:AI/人类)×2(建议内容:自私/亲社会)×2(实际行为:自私/亲社会)的因子设计,另设无建议对照组。所有参与者均获得经济激励,评估者通过分配惩罚分数衡量对决策行为的评判。
关键发现
- 行为类型主导惩罚:自私行为平均惩罚分数为7.2(标准差1.8),亲社会行为仅为1.3(标准差0.6)
- 建议内容调节惩罚:自私建议使自私行为的惩罚降低32%,亲社会建议使惩罚增加41%
- 责任归因差异:遵循AI建议的决策者责任评分比人类建议组高0.7点(5点量表)
- 建议源无惩罚差异:AI与人类建议组的惩罚分数差异不显著(p=0.34)
讨论
实验结果挑战了"AI责任豁免"假设,表明公众对AI建议的接受并未降低道德评判标准。建议内容而非来源影响惩罚强度的发现,为AI伦理设计提供了实证依据:优化建议内容比强调AI属性更能影响行为后果。