Global powers are grappling with 'responsible' use of military AI. What would that look like?
크레딧: 공군 기술.하사테리 아이허

지난주에는 전 세계 2000여명의 정부 관료와 전문가들이 모였다.REAIM(군사 영역의 책임 있는 인공지능) 정상회담이 한국 서울에서 열렸습니다.이번 행사는 2023년 2월 네덜란드에서 첫 개최된 데 이어 두 번째 행사다.

올해 동안,61개국이 "행동을 위한 청사진"을 승인했습니다.군의 인공지능(AI) 개발과 사용을 관리하기 위한 것입니다.

그러나 30개국은 정상회담에 정부 대표를 파견했지만 그 청사진을 지지하지 않았고,중국을 포함한.

청사진은 중요하지만 겸손한 개발입니다.그러나 책임 있는 AI 사용이 무엇인지, 그리고 이것이 군사 영역에서 구체적인 행동으로 어떻게 해석되는지에 대한 이해에는 여전히 격차가 있습니다.

AI는 현재 군사적 맥락에서 어떻게 사용됩니까?

AI의 군사적 사용은 지난 몇 년 동안 특히 러시아-우크라이나 및 이스라엘-팔레스타인 분쟁에서 증가했습니다.

이스라엘은 "복음"과 "라벤더"로 알려진 AI 지원 시스템을 사용하여 폭탄의 대상과 위치와 같은 주요 군사 결정을 내리는 데 도움을 주었습니다.시스템많은 양의 데이터를 사용, 사람들을 포함하여주소, 전화번호, 채팅 그룹 멤버십.

특히 "라벤더" 시스템은 올해 초 비평가들이 그 효율성과 합법성에 의문을 제기하면서 헤드라인을 장식했습니다.훈련 데이터에 대한 특별한 우려가 있었고대상을 분류하는 방법.

러시아와 우크라이나도 마찬가지다.AI를 사용하여 군사 의사결정 지원.위성 이미지, 소셜 미디어 콘텐츠, 드론 감시 등은 막대한 양의 데이터를 생성하는 수많은 정보 소스 중 일부일 뿐입니다.

AI는 인간보다 훨씬 더 빠르게 이 데이터를 분석할 수 있습니다.결과는 기존 '킬 체인'에 통합됩니다.목표물을 찾고, 추적하고, 표적화하고 참여시키는 과정.

그것은 의미한다활발한 무력 충돌 중에 더 빠른 결정을 내릴 수 있어 전술적 이점을 제공합니다.그러나 AI 시스템을 오용하면 잠재적인 피해를 초래할 수도 있습니다.

시민사회와 국제적십자위원회 등 비정부기구는 위험성을 경고해 왔다.예를 들어, 알고리즘 편향은 다음과 같습니다.민간인 위험 가중시킨다활동적인 전쟁 중.

군사 영역에서 책임 있는 AI란 무엇인가?

"책임 있는" AI가 무엇인지에 대한 합의는 없습니다.

일부 연구자들은 주장한다.기술 자체가 책임질 수 있다.이 경우 "책임 있다"는 것은 기본적으로 공정성과 편견이 없음을 의미합니다.

다른 연구에서는 다음을 참조한다.AI 관련 관행디자인, 개발, 사용 등 책임을 집니다.이는 합법적이고 추적 가능하며 신뢰할 수 있고 편견 완화에 초점을 맞춘 관행을 의미합니다.

최근 서울 정상회담에서 승인된 청사진은 후자의 해석에 부합한다.군대에서 AI를 사용하는 사람은 누구나 관련 국내법과 국제법을 준수해야 한다고 주장합니다.

강조하기도 합니다인간 역할의 중요성군사 영역에서 AI의 개발, 배치 및 사용에 있습니다.여기에는 무력 사용에 대한 인간의 판단과 통제가 책임감 있고 안전하게 관리되도록 보장하는 것이 포함됩니다.

AI에 관한 많은 내러티브는 인간의 개입과 책임이 없음을 잘못 암시하기 때문에 이는 중요한 차이점입니다.

정부는 군사 AI를 책임감 있게 사용하기 위해 무엇을 할 수 있습니까?

정상회담에서의 논의는 정부가 군용 AI의 책임 있는 사용을 지원하기 위해 취할 수 있는 구체적인 조치에 중점을 두었습니다.

현재 군사용 AI 활용이 증가함에 따라 이를 처리하기 위한 임시 조치가 필요합니다.한 가지 제안은 전 세계적이고 보편적인 합의에 도달하는 데 시간이 더 걸리기보다는 여러 지역 내에서 AI 규제 협약을 체결하는 것이었습니다.

개선하기 위해군사 AI에 관해서도 우리는 핵 비확산, 오존층 보호, 우주 공간과 남극 대륙의 비무장화 유지 등 이전의 글로벌 과제에서 얻은 교훈에 귀를 기울일 수도 있습니다.

작년 첫 정상회담 이후 18개월 동안 정부와 기타 책임 있는 당사자들은 위험 완화 프로세스를 마련하기 시작했으며군사 AI용 툴킷.

청사진에는 그 이후의 진행 상황과 정상회담에서 논의된 아이디어가 반영되어 있습니다.여러 가지 실질적인 조치를 제안합니다., 여기에는 다음이 포함됩니다.

  • AI 기반 군사 능력에 대한 보편적인 법적 검토
  • 국가, 지역 및 국제 수준에서 군사 영역의 책임 있는 AI를 보장하기 위한 조치 개발에 대한 대화를 촉진합니다.
  • 군사 영역에서 AI의 개발, 배치 및 사용에 적절한 인간 참여를 유지합니다.

그러나 책임 있는 군사 AI가 실제로 어떤 모습인지에 대한 보편적인 이해가 아직 없기 때문에 진행 속도가 느립니다.

이러한 문제를 해결해야 하는 필요성은 이제 다음 정상회담(아직 발표되지 않음)에 압력을 가하고 있습니다.네덜란드는 또한전문가 기구를 설치하다군사 AI에 대한 전 세계적으로 일관된 접근 방식을 강화합니다.

인류는 AI 도구의 혜택을 누릴 수 있습니다.그러나 우리는 특히 군사 분야에서 이러한 위험이 확산되지 않도록 시급히 조치해야 합니다.

이 기사는 다음에서 재출판되었습니다.대화크리에이티브 커먼즈 라이센스에 따라.읽기원본 기사.The Conversation

소환:세계 강대국들은 군사 AI의 '책임 있는' 사용을 놓고 고심하고 있습니다.그것은 어떤 모습일까요?(2024년 9월 17일)2024년 9월 17일에 확인함https://techxplore.com/news/2024-09-global-powers-grappling-responsible-military.html에서

이 문서는 저작권의 보호를 받습니다.사적인 학습이나 조사를 목적으로 하는 공정한 거래를 제외하고는 어떠한 행위도 허용되지 않습니다.서면 허가 없이 일부를 복제할 수 있습니다.콘텐츠는 정보 제공 목적으로만 제공됩니다.