ai
クレジット: CC0 パブリック ドメイン

今年は50カ国以上で国政選挙が予定されており、アナリストらはかねてより、不正行為者が人工知能(AI)を利用して選挙期間中に偽情報を世界中に広め、増幅させる脅威に警鐘を鳴らしている。

今回、ジョージ ワシントン大学の研究者らが主導した新しい研究では、日々の悪役 AI の活動が 2024 年半ばまでに激化し、選挙結果に影響を与える可能性があるという脅威が増大すると予測しています。この研究は、悪者が世界中でどのように AI を悪用するかを予測する初めての定量的科学分析です。

この論文は、「オンライン戦場全体で悪役 AI の活動を大規模に制御する」というものです。出版された日記でPNAS ネクサス

「誰もが AI の危険性について話していますが、私たちの研究が行われるまで、この脅威に関する科学は存在しませんでした」と、研究筆頭著者であり、GW 大学の物理学教授であるニール・ジョンソン氏は言う。「戦場を深く理解しなければ戦いに勝つことはできない。」

研究者らは、この研究によって、AIが世界中の悪者によっていつ、どこで、何を使用されるのか、そしてそれをどのように制御できるのかが明らかになったと述べている。彼らの発見の中には次のようなものがあります。

  • 悪意のある行為者は、プラットフォーム上の情報を操作して偏らせるために、基本的な Generative Pre-trained Transformer (GPT) AI システムのみを必要とします。GPT 3 や 4 などのより高度なシステムには、悪意のある活動を軽減するためのより多くのガードレールがある傾向があります。
  • 23号線にわたる道路網ジョンソン氏の先行研究で事前に計画されていたもので、ユーザーの知らないうちに、悪役コミュニティが世界中の何十億ものユーザーに直接リンクできるようになる。
  • AI による悪意のある行為は、2024 年の夏までに日常茶飯事になるでしょう。これを判断するために、研究者らは、オンライン電子情報システムの操作に関係した、技術的に類似した過去の 2 件の事件のプロキシ データを使用しました。最初のデータセットは、米国に対する自動アルゴリズム攻撃から得られたものです。1 回目は 2008 年、2 回目は 2013 年の米国インフラに対する中国のサイバー攻撃によるものでした。研究者らは、これらの一連のイベントにおける攻撃の頻度を推定し、現在の AI 技術進歩の文脈でこの情報を調べることができました。
  • ソーシャルメディア企業は、コンテンツをすべて削除するのではなく、偽情報を封じ込める戦術を展開する必要があります。研究者らによれば、これは小規模で孤立した主体を我慢しながら、より大きな組織活動のポケットを取り除くようなものであるとのことだ。

詳細情報:Neil F Johnson 他、オンライン戦場全体にわたる大規模な悪意のある人工知能の活動の制御、PNAS ネクサス(2024年)。DOI: 10.1093/pnasnexus/pgae004。Academic.oup.com/pnasnexus/art âã /7582771?login=false引用

:新しい研究は、世界選挙の年における悪役 AI の活動の予測と制御に取り組んでいます (2024 年 1 月 23 日)2024 年 1 月 23 日に取得https://techxplore.com/news/2024-01-bad-actor-ai-year-global.html より

この文書は著作権の対象です。個人的な研究や研究を目的とした公正な取引を除き、書面による許可なく一部を複製することができます。コンテンツは情報提供のみを目的として提供されています。