How AI can help stop the spread of misinformation
如果一个人更快乐,那么他们说的是真话,而且当我们诚实时,我们作为人类也会分享其他视觉、言语、声音线索。算法可以更好地揭示这些相关性。图片来源:加州大学圣地亚哥分校。

加州大学圣地亚哥分校拉迪管理学院的最新研究表明,机器学习算法在高风险战略互动中检测谎言方面明显优于人类判断。

这项研究可能对错误信息的传播产生重大影响,因为可用于加强减少 YouTube、Tik-Tok 和 Instagram 等主要平台上的虚构内容的努力。

该研究将发表于管理科学并可作为工作文件,重点关注 2007 年至 2010 年播出的热门英国电视节目《金球》中参与者辨别谎言的能力。研究发现,虽然人类难以预测参赛者的欺骗行为,但算法的表现要好得多。

该研究的主要作者、加州大学圣地亚哥分校拉迪管理学院行为经济学副教授玛塔·塞拉-加西亚说:“我们发现,当一个人在欺骗时,会有一定的‘迹象’。”

“例如,如果某人更快乐,那么他们就说实话,并且当我们诚实并说真话时,我们作为人类都会分享其他视觉、言语、声音线索。算法可以更好地揭示这些相关性。”

研究中使用的算法取得了令人印象深刻的准确率,正确预测参赛者行为的率为 74%,而参与该研究的 600 多人的准确率仅为 51% - 53%。

除了比较机器学习和人类检测欺骗的能力之外,该研究还测试了如何利用算法来帮助人们更好地区分说谎者和说真话的人。

在一项实验中,两组不同的研究参与者观看了同一组“金球”剧集。一组在观看视频之前通过机器学习对其进行了标记。这些标志表明预测参赛者很可能在撒谎。

另一组人观看了同一视频,观看后,他们被告知算法将该视频标记为欺骗。如果参与者在观看视频之前收到标记消息,他们更有可能相信机器学习的见解并更好地预测谎言。

“在采用算法建议时,时机至关重要,”塞拉-加西亚说。“我们的研究结果表明,当算法见解在早期呈现时,参与者更有可能依赖这些见解。。这对于 YouTube 和 TikTok 等在线平台尤其重要,它们可以使用算法来标记潜在的欺骗性内容。”

拉迪学院行为经济学教授、合著者 Uri Gneezy 补充道:“我们的研究表明,这些在线平台可以通过在用户参与内容之前(而不是之后)提出算法警告来提高其标记系统的有效性,这可能会导致错误信息传播得较慢。”

其中一些社交媒体网站已经在使用算法来检测可疑内容,但在许多情况下,视频必须由用户报告,然后由可以标记内容或将其删除的工作人员进行调查。由于 TikTok 等科技公司的员工因调查而负担过重,这些流程可能会被拖延。

作者总结道:“我们的研究展示了技术如何增强人类决策,这也是当人工智能发挥作用时人类如何与人工智能互动的一个例子。我们希望这些发现能够帮助组织和平台更好地设计和部署机器学习工具,特别是在准确决策至关重要的情况下。”

引文:人工智能如何帮助阻止错误信息的传播(2024 年 9 月 17 日)检索日期:2024 年 9 月 17 日来自 https://techxplore.com/news/2024-09-ai-misinformation.html

本文档受版权保护。除了出于私人学习或研究目的的任何公平交易外,不得未经书面许可,不得复制部分内容。所提供的内容仅供参考。