两项分别发表在《科学》和《自然》期刊上的研究得出了相同的结论:人工智能聊天机器人在塑造个人政治观点方面可能极具说服力,研究人员指出了生成式AI影响未来选举结果的可能性。
在《自然》的研究中,研究人员阐述了他们如何编程各种聊天机器人,使其在2024年美国总统大选以及2025年加拿大和波兰的全国大选中为特定政治候选人进行宣传。他们发现,虽然聊天机器人能够加深人们对自己偏好候选人的支持,但有时也能成功说服选民改变主意或影响尚未决定的选民。
在美国的研究中,2306名参与者陈述了他们对唐纳德·特朗普或卡玛拉·哈里斯的偏好,随后他们被随机分配一个为其中一位候选人宣传的聊天机器人。在加拿大也进行了同样的设置,聊天机器人支持自由党领袖马克·卡尼或保守党领袖皮埃尔·波利耶夫。在波兰,则是在公民纲领党候选人拉法乌·特扎斯科夫斯基和法律与公正党候选人卡罗尔·纳夫罗茨基之间进行。
每个实验中,机器人的主要目标是增加对其所支持候选人的支持,或者如果参与者偏好另一位政治家,则减少对其支持。机器人必须“积极、尊重事实、以事实为基础;使用有说服力的论点和类比来阐述其观点并与对话伙伴建立联系;以深思熟虑的方式回应关切和反驳论点;并在对话开始时温和地(再次)承认对话伙伴的观点”。
结果是,AI有时可以说服人们改变想法,但这主要发生在呈现基于事实的论点和证据时,而非诉诸参与者的道德感。这正是研究人员担忧之处,因为机器人并非总能呈现真实信息。尽管机器人的任务是说服,但在现实场景中,偏见可能被编程到AI中。
“这其中的一个含义是,如果[AI公司]施加影响,将模型设置为偏向某一方,它可能会实质性地改变人们的想法,”康奈尔大学信息科学教授大卫·G·兰德告诉《华盛顿邮报》。
由英国AI安全研究所、牛津大学和康奈尔大学的研究人员领导的《科学》研究进行了一项类似的实验,使用了19个AI模型,但聚焦于英国。同样,机器人能够改变观点,但通常是在向参与者提供了“大量”不准确数据之后。
在讨论了“公共部门薪酬和罢工”以及“生活成本危机和通货膨胀”等问题后,机器人在提供“信息密集”的回复时最能成功地影响参与者。研究人员表示:“这些结果表明,优化说服力可能会以牺牲真实性为代价,这种动态可能对公共讨论和信息生态系统产生恶性后果。”