阴谋论的“兔子洞”,被AI破解了!
MIT的最新研究登上了Science封面:与AI对话,有助于持续地降低阴谋论的影响。
研究结果显示,大模型反驳阴谋论的准确性极高!
经过专业事实核查员评估,99.2%的反驳内容都被认定为真实信息,仅有0.8%存在一定的误导性,而且整体没有任何虚假信息和偏见内容。
研究成果一经发表,就受到了广泛关注,但人们对AI破解阴谋论的态度褒贬不一。
有人认为这是人类对抗错误思维的伟大工具。
也有人说,放到现实中的话,这一切并不成立。因为她身边的阴谋论者都非常抗拒使用AI工具,就算他们用了AI也不会相信它所给出的答案。
然而,更多的人依然对这项研究成果持乐观态度。
至于结果到底如何,咱们来一探究竟!
实验中,研究人员分别招募了1055人进行治疗组实验,以及2286人进行对照组实验。
其中,治疗组要求参与者与AI进行对话,讨论他们选择的阴谋论,而对照组则是和AI讨论一个无关的话题。
最终的实验结果显示,治疗组的阴谋论信念平均减少了约20%,而对照组几乎没有变化。
这一效果在2个月后依然存在,并且对各种阴谋论都有普遍的影响。
即使是对初始信念根深蒂固的参与者也是如此。
实验也影响了参与者的后续的行为。(比如他们会在社交媒体上取关那些传播阴谋论的博主)
团队的研究人员更是发文感叹:
需求和动机并不会完全使你在陷入阴谋论后失去理智,只需详细且量身定制的证据就可以帮助你回归现实。干预是可行的!
既然“干预是可行的”,那咱们就来一起唠唠实验中是如何进行“干预”的。
实验中,研究人员先是让参与者们完成了包含了15个阴谋论的信念量表,以0-100的等级来对他们的初始信念进行评分。
并且要求他们描述出一个自己相信的阴谋论,还要提供出相关的证据。(用来生成AI对话的初始摘要)
之后就将他们分配到“治疗组”和“对照组”进行实验。
期间他们会与基于GPT-4 Turbo的模型进行三轮对话,对话平均持续8.4分钟。
实验中,AI的目的是针对参与者所提供的具体证据进行反驳,并试图减少他们对该阴谋论的信仰。
在对话结束后,所有参与者需要重新测试他们对所述阴谋论的信仰程度,等级范围仍然是0-100,用来评估干预的的效果。
之后的10天和2个月的时间内,研究人员再次联系参与者,进行信仰程度的追踪测量,进而评估信念变化的持久性。
此外,研究团队通过不断调整问卷的措辞,成功在两轮实验中验证了研究结果的稳定性。
看完实验过程,咱们再来唠一唠这项实验有哪些创新之处:
首先,研究采用了实时互动模式,AI能根据参与者的具体证据和反驳灵活调整论点和策略,这种方法比传统的静态问卷或预设干预更具灵活性和针对性。
其次,研究提出了一种新的实验范式,结合了行为科学和生成式AI的优势,使得研究者能够实时获取参与者的信念陈述,并将其转化为定量结果。
不过AI虽好,可不要贪杯,毕竟“水能载舟亦能覆舟”。
就像研究人员所说的那样:
如果没有保护措施,语言模型也可能让人们相信阴谋论或其他虚假信息。
不过他还是贴心的给大家送上了相关链接供大家进行测试。
试玩链接已经附上,感兴趣的朋友们可以围观一下~
试玩链接:
https://www.debunkbot.com/
参考链接:
[1]https://www.science.org/doi/10.1126/science.adq1814
[2]https://www.science.org/doi/10.1126/science.ads0433
[3]https://www.science.org/doi/10.1126/science.adt0007
[4]https://x.com/DG_Rand/status/1834291074480660560
— 完 —
本文来自新知号自媒体,不代表商业新知观点和立场。 若有侵权嫌疑,请联系商业新知平台管理员。 联系方式:system@shangyexinzhi.com