美国总统约翰·肯尼迪遇刺、阿波罗登月任务、9/11恐袭……这些事件及其他事件启发了许多阴谋论。如何让相信这些理论的人摆脱它们?一项发表在《科学》上的研究显示,与一个由大型语言模型驱动的聊天机器人进行对话可以取得良好效果。让·弗朗索瓦·邦尼芳(未参与此项研究),一位研究人类与人工智能互动的专家,回答了我们的问题。根据Arcom,约60%的法国人相信至少一种阴谋论。为什么人们会相信这样的理论?
J.-F. 邦尼芳:首先需要一种心理上的倾向,例如对传统来源的某种不信任。相信阴谋论有其好处:感觉自己是一个领域的专家可以提升自我价值感。同时,这种信仰有一个认同感的方面,即感到自己属于掌握真相并反对普遍观点的群体之一。有没有方法可以帮助这些人摆脱他们的阴谋论?由于信仰的动力依赖于超验知识的因素,以为可以通过依靠理性论证的策略来改变某人对阴谋的信仰是行不通的。
此外,这些人常常通过参考他们圈子里的资料来详细阅读相关资料。他们对这一主题有广泛的了解,并有复杂的论点。直接讨论变得非常困难。过去研究的一种方法是进行干预以鼓励批判性思维,在认知心理学中,这种方法是在直觉模型与审议模型之间对抗的概念。有两种处理信息的方式:一种是略带直觉、情感性、表面的,另一种是更为审议的,通过分析思维深入探讨相信某事的原因。这些尝试旨在将人们转向一种分析审议的模式。
这的确产生了积极的结果,但效果非常微弱。该方法有哪些障碍?根据麻省理工学院(MIT)的托马斯·科斯特洛(Thomas Costello)及其团队进行的新研究分析,成功有限的原因有两个。第一是很难对相信阴谋论的人提出的每个论点给出正确的答案。此外,要进行真正个性化的对话,而不是一般性的对话,才能具有说服力。然后,研究团队想到使用基于大型语言模型GPT-4 Turbo的聊天机器人。
后者拥有巨大的信息基础,能针对每个论点提供准确的信息。其目标是借助人工智能放大先前方法产生的积极效果,能够实时适应对方的对话内容。人们是否愿意被人工智能纠正呢?常常听说人们对算法有厌恶感,他们不信任人工智能(AI),这可能是托马斯·科斯特洛的项目的障碍。但我们要谨慎对待这种概括。实际上,专家指出,人类对机器失去信任的速度比对另一个人快。如果AI犯了一个错误,它马上就会被弃用:
“如果它出错了,那就是编程不当。”在这里使用AI是一种优势。人们可能会害怕被人类评判为愚蠢或消息闭塞。然而,他们面对机器时表达更自由。研究人员还表明,参与者知道自己将与AI互动。托马斯·科斯特洛的实验内容是什么?大约2000名信仰至少一种阴谋论的人与聊天机器人互动。第一步中,每个参与者必须用自己的话表述他们所信仰的理论及支持的论点。AI总结了这个文本并询问他们是否相信这个陈述。这个分数作为参考。
然后主题与聊天机器人进行三个回合的对话,机器提出论点,人可以反驳,这代表不到十分钟的对话。交流结束时,会再次向参与者展示初始总结,询问他们在多大程度上仍然相信这个陈述。研究人员发现,平均而言,信仰程度相较于阴谋论的最初表述减少了近20%。即便是在相信许多阴谋论并认为其在生活中扮演重要角色的人中,也看到了积极的效果。这种积极效果能持续多长时间?团队进行了一次十天和两个月的后续观察。效果仍然存在。
这让人惊讶。难道不会期待这些个体再次暴露于支持阴谋论的论点时,效果会减弱吗?确实。这正是本文中的一个重要点。我不知道是否能对此进行解释,但这需要在未来的研究中深入探讨。我们在气候领域知道干预效果的衰减。一个气候怀疑论者与其朋友、家人等讨论时,他们的观点可能会改变。但效果在几周后消退。当我发现这项关于阴谋论的研究时,我预期会出现类似的情况。然而,这不是我们所观察到的。这虽然令人意外,但也是个好消息。
现在,在寻找解释之前,我们需要首先进行重复实验,以查看是否能得到相同的效果。我们应该在六个月到一年内获得新的数据,并从中更好地理解正在发生的事情。你提到气候问题;我们的能否将这种方法应用于超越阴谋论的领域,例如某些健康谜团或政治极端主义?如果信仰的机制相同,我们可以扩展这种方法。根据先前研究,干预的理性因素已经各显成效,这是气候方面的共识。当人们得知科学共识后,他们的信念会改变。
尽管变化不多且时间不长。但或许更大更持久的努力,借助AI,将会有效。我们需要研究所有这些路径。你认为这种方法有没有限制?在我与荷兰蒂尔堡大学的本斯·巴戈(Bence Bago)共同撰写的托马斯·科斯特洛研究评论中,我们提出了一个关于参与者的限制。他们是通过调查参与招募的。他们不知道实验的内容,因此进行了可以说是“苏格拉底式”的互动:他们参与游戏而对所寻求的效果毫无偏见。
如果主动提出与聊天机器人进行对话,且明确目的是改变他们的观点,情况将大为不同。他们可能也会有意图让机器失衡,使其为阴谋论提供理由。因此,必须找到其他方法来使用这种方法。特别是,“阴谋论者”的家人往往感到忧虑、无能为力,不知道如何应对他们复杂的论点。在这种情况下,AI可以作为一种帮助。面对可能出现的新阴谋论,会怎样?这可能是该方法的又一限制:聊天机器人没有接受过包含新理论可能回应的训练。
AI可以在互联网上自行搜索,这并非不可能找到论点;但错误的风险更大。因为该模型的训练内容经过了审核和验证,而在讨论新兴主题时,机器的潜在行为似乎更加不明确。