ai
신용: CC0 공개 도메인

올해 50개 이상의 국가에서 총선이 치러질 예정이며, 분석가들은 인공 지능(AI)을 사용하여 전 세계 선거 시즌 동안 허위 정보를 전파하고 증폭시키는 악의적인 행위자의 위협에 대해 오랫동안 경고해 왔습니다.

이제 조지 워싱턴 대학교(George Washington University) 연구원들이 주도한 새로운 연구에서는 2024년 중반까지 일상적인 악당 AI 활동이 증가하여 선거 결과에 영향을 미칠 수 있는 위협이 커질 것으로 예측합니다.이번 연구는 악의적인 행위자가 전 세계적으로 AI를 어떻게 오용할지 예측하는 최초의 정량적 과학적 분석입니다.

"온라인 전장에서 대규모로 악의적인 행위자 AI 활동 제어"라는 논문은출판됨일지에서PNAS 넥서스.

"모두가 AI의 위험성에 대해 이야기하고 있지만 우리 연구 전까지는 이 위협에 대한 과학적인 내용이 없었습니다."라고 GW의 물리학 교수이자 수석 연구 저자인 Neil Johnson은 말합니다."전장에 대한 깊은 이해 없이는 전투에서 승리할 수 없습니다."

연구원들은 이 연구가 전 세계적으로 악의적인 행위자들이 AI를 언제, 어디서, 무엇을 사용할 것인지, 그리고 이를 어떻게 제어할 수 있는지에 대한 답을 제공한다고 말합니다.그 결과는 다음과 같습니다.

  • 악의적인 행위자는 악의적인 활동을 완화하기 위해 더 많은 가드레일이 있는 경향이 있는 GPT 3 및 4와 같은 고급 시스템보다는 플랫폼의 정보를 조작하고 편향하기 위해 기본 GPT(Generative Pre-trained Transformer) AI 시스템만 필요합니다.
  • 23개에 걸친 도로망이전에 Johnson의 이전 연구에서 계획된 바 있는 이 방법을 사용하면 악의적인 행위자 커뮤니티가 사용자가 알지 못하는 사이에 전 세계 수십억 명의 사용자에게 직접 연결될 수 있습니다.
  • AI가 주도하는 악의적 행위자 활동은 2024년 여름까지 매일 발생하게 될 것입니다. 이를 확인하기 위해 연구원들은 온라인 전자 정보 시스템 조작과 관련된 두 가지 역사적, 기술적으로 유사한 사건의 프록시 데이터를 사용했습니다.첫 번째 데이터 세트는 미국에 대한 자동화된 알고리즘 공격에서 나왔습니다.2008년에 발생했고 두 번째는 2013년 미국 인프라에 대한 중국의 사이버 공격에서 발생했습니다., 연구원들은 이러한 일련의 사건에서 공격 빈도를 추정하고 현재 AI 기술 진보의 맥락에서 이 정보를 조사할 수 있었습니다.
  • 소셜 미디어 회사는 모든 콘텐츠를 제거하는 것이 아니라 허위 정보를 억제하기 위한 전술을 배포해야 합니다.연구원들에 따르면, 이는 더 작고 고립된 행위자들을 참으면서 조정된 활동의 더 큰 부분을 제거하는 것처럼 보입니다.

추가 정보:Neil F Johnson 외, 온라인 전장 전반에 걸쳐 악의적인 행위자-인공 지능 활동을 대규모로 제어,PNAS 넥서스(2024).DOI: 10.1093/pnasnexus/pgae004.Academic.oup.com/pnasnexus/art… /7582771?login=false소환

:새로운 연구에서는 세계 선거(2024년 1월 23일)가 열리는 해에 악의적인 행위자 AI 활동을 예측하고 제어하는 ​​방법을 다룹니다.2024년 1월 23일에 확인함https://techxplore.com/news/2024-01-bad-actor-ai-year-global.html에서

이 문서는 저작권의 보호를 받습니다.사적인 학습이나 조사를 목적으로 하는 공정한 거래를 제외하고는 어떠한 행위도 허용되지 않습니다.서면 허가 없이 일부를 복제할 수 있습니다.콘텐츠는 정보 제공 목적으로만 제공됩니다.