ai
图片来源:CC0 公共领域

今年将有 50 多个国家举行全国大选,分析人士长期以来一直对不良行为者在全球选举季期间利用人工智能 (AI) 传播和放大虚假信息的威胁发出警报。

现在,乔治华盛顿大学研究人员领导的一项新研究预测,到 2024 年中期,不良人工智能的日常活动将会升级,从而增加影响选举结果的威胁。这项研究是第一个定量科学分析,预测不良行为者将如何在全球范围内滥用人工智能。

这篇论文“在在线战场上大规模控制不良行为者人工智能活动”发表在日记中美国国家科学院院刊

“每个人都在谈论人工智能的危险,但在我们的研究之前,还没有关于这种威胁的科学依据,”该研究的主要作者、乔治城大学物理学教授尼尔·约翰逊说。“如果没有对战场的深入了解,你就无法赢得战斗。”

研究人员表示,这项研究回答了人工智能将在全球范围内被不良行为者使用的内容、地点和时间,以及如何对其进行控制。他们的发现包括:

  • 不良行为者只需要基本的生成式预训练 Transformer (GPT) AI 系统来操纵和偏差平台上的信息,而不是更先进的系统,如 GPT 3 和 4,后者往往有更多的防护措施来减少不良活动。
  • 公路网横跨23个约翰逊之前的研究中已经提出了这一点,它将允许不良行为者社区在用户不知情的情况下直接链接到全球数十亿用户。
  • 到 2024 年夏天,由人工智能驱动的不良行为将每天发生。为了确定这一点,研究人员使用了两起历史上技术相似的事件的代理数据,这些事件涉及在线电子信息系统的操纵。第一组数据来自对美国的自动算法攻击第二次是2008年,第二次是2013年中国对美国基础设施的网络攻击。通过分析这些,研究人员能够推断出这些事件链中的攻击频率,并在当前人工智能技术进步的背景下检查这些信息。
  • 社交媒体公司应该采取策略来遏制虚假信息,而不是删除所有内容。研究人员表示,这看起来像是取消了较大的协调活动,同时容忍较小的、孤立的参与者。

更多信息:Neil F Johnson 等人,在在线战场上大规模控制不良行为者人工智能活动,美国国家科学院院刊(2024)。DOI:10.1093/pnasnexus/pgae004。academic.oup.com/pnasnexus/art �/7582771?login=false引文

:新研究致力于预测和控制全球选举中不良行为者的人工智能活动(2024 年,1 月 23 日)检索日期:2024 年 1 月 23 日来自 https://techxplore.com/news/2024-01-bad-actor-ai-year-global.html

本文档受版权保护。除了出于私人学习或研究目的的任何公平交易外,不得未经书面许可,不得复制部分内容。所提供的内容仅供参考。