Global powers are grappling with 'responsible' use of military AI. What would that look like?
クレジット: 空軍技術者。軍曹テリー・アイヒャー

先週、世界中から約2,000人の政府関係者と専門家が集まり、レアム韓国のソウルで開催された(軍事分野における責任ある人工知能)サミット。この種のイベントは2回目で、最初の回は2023年2月にオランダで開催された。

今年中に61カ国が「行動の青写真」を支持軍による人工知能 (AI) の開発と使用を管理するため。

しかし、30カ国はサミットに政府代表を派遣したが、青写真を支持しなかった。中国も含めて

ブループリントは、控えめではあっても重要な開発です。しかし、AI の責任ある使用とは何か、またこれが軍事分野での具体的な行動にどのように反映されるかについての理解には、依然としてギャップがあります。

AI は現在、軍事分野でどのように使用されていますか?

ここ数年、特にロシアとウクライナ、イスラエルとパレスチナの紛争において、AIの軍事利用が増加している。

イスラエルは「ゴスペル」や「ラベンダー」として知られるAI対応システムを利用して、どの場所や人を爆弾で攻撃するかといった重要な軍事的決定を下してきた。システム大量のデータを使用する、人々のものも含めて住所、電話番号、チャットグループのメンバーシップ

特に「ラベンダー」システムは、批評家がその有効性と合法性を疑問視し、今年初めに見出しを飾った。トレーニング データに関しては特に懸念がありました。ターゲットをどのように分類したか

ロシアもウクライナもAI を使用して軍事的意思決定をサポートする。衛星画像、ソーシャル メディア コンテンツ、ドローンによる監視などは、大量のデータを生成する多くの情報源の一部にすぎません。

AI は人間よりもはるかに迅速にこのデータを分析できます。結果は既存の「キル チェーン」に組み込まれます。ターゲットを特定、追跡、ターゲティングし、関与させるプロセス

つまり、活発な武力紛争中に迅速な意思決定を行うことができ、戦術的な利点が得られます。ただし、AI システムを誤用すると、潜在的な損害が生じる可能性もあります。

市民社会や赤十字国際委員会などの非政府組織は、そのリスクについて警告している。たとえば、アルゴリズムのバイアスにより、民間人へのリスクを悪化させる活発な戦争中。

軍事分野における責任あるAIとは何でしょうか?

「責任ある」AI とは何かについては、コンセンサスがありません。

一部の研究者はこう主張するテクノロジー自体に責任がある可能性がある。この場合、「責任がある」とは、公平性が組み込まれており、偏見がないことを意味します。

他の研究は以下を参照していますAI に関する実践設計、開発、使用などの責任を負います。これらは、合法で、追跡可能で、信頼性が高く、偏見の軽減に重点を置いた実践を意味します。

最近のソウルでのサミットで承認された青写真は、後者の解釈と一致している。軍事で AI を使用する者は、関連する国内法および国際法を遵守する必要があると主張しています。

ハイライトにもなります人間の役割の重要性軍事分野での AI の開発、展開、使用。これには、武力行使に対する人間の判断と制御が責任を持って安全に管理されるようにすることが含まれます。

AI に関する多くの物語は、人間の関与や責任の欠如を誤ってほのめかしているため、これは重要な違いです。

責任を持って軍事 AI を使用するために政府は何ができるでしょうか?

サミットでの議論は、軍事AIの責任ある使用を支援するために政府が講じることができる具体的な措置に重点を置いた。

現在、軍事AIの利用が増加しているため、それに対処するための暫定措置が必要です。提案の 1 つは、世界的かつ普遍的な合意に達するまでに時間をかけるのではなく、さまざまな地域内で AI 規制に関する協定を締結することでした。

改善するには軍事 AI に関しては、核不拡散、オゾン層の保護、宇宙空間と南極の非武装化など、これまでの世界的な課題からの教訓に留意することもできます。

昨年の第1回サミットから 18 か月が経過し、政府およびその他の責任ある関係者は、リスク軽減プロセスと、軍事AI用のツールキット

この青写真には、それ以降の進歩とサミットで議論されたアイデアが反映されています。多くの具体的なステップを提案します、これには次のものが含まれます。

  • AI を活用した軍事能力に対する普遍的な法的審査
  • 国、地域、国際レベルでの軍事分野における責任あるAIを確保するための措置を開発するための対話を促進する
  • 軍事分野における AI の開発、展開、使用への人間の適切な関与を維持する。

しかし、責任ある軍事AIが実際にどのようなものであるかについてまだ普遍的な理解が得られていないため、進歩は遅れています。

これらの問題を解決する必要性が現在、次回のサミット(未発表)に圧力をかけている。オランダもまた、専門家団体を設立する軍事 AI に対する世界的に一貫したアプローチを推進します。

人類は AI ツールから恩恵を受けることができます。しかし、特に軍事分野において、それらがもたらすリスクが拡大しないようにすることが緊急に必要です。

この記事はから転載されています会話クリエイティブ・コモンズ・ライセンスに基づいて。読んでください元の記事The Conversation

引用:世界の大国は軍事AIの「責任ある」使用に取り組んでいる。それはどのようなものでしょうか?(2024年9月17日)2024 年 9 月 17 日に取得https://techxplore.com/news/2024-09-global-powers-grapling-responsible-military.html より

この文書は著作権の対象です。個人的な研究や研究を目的とした公正な取引を除き、書面による許可なく一部を複製することができます。コンテンツは情報提供のみを目的として提供されています。