tracking people with AI
クレジット: AI 生成画像あ

報告エルサレムを拠点とする調査ジャーナリストによる記事が掲載された。+972同誌は、ガザ地区の何万もの標的を特定し、場合によっては誤認する上で AI 標的システムが重要な役割を果たしていることを発見した。これは、自律戦争がもはや将来のシナリオではないことを示唆しています。それはすでに現れており、その結果は恐ろしいものです。

問題となるテクノロジーは 2 つあります。最初、「ラベンダー」は、アルゴリズムを使用してハマスの工作員をターゲットとして特定するように設計された AI 推奨システムです。2つ目はグロテスクな名前「パパはどこ?」は、ターゲットを地理的に追跡し、攻撃される前に家族の住居まで追跡できるようにするシステムです。これら 2 つのシステムを合わせて、検索-修正-追跡-ターゲット現代の軍隊で知られているものの構成要素「キルチェーン」

ラベンダーのようなシステムは自律型兵器ではありませんが、殺害の連鎖を加速し、殺害のプロセスを徐々に自律型にしていきます。AI ターゲティング システムは、コンピューター センサーやその他のソースからのデータを利用して、潜在的なターゲットを構成するものを統計的に評価します。この膨大な量のデータは、ガザ地区の230万人の住民の監視を通じてイスラエル諜報機関によって収集されている。

このようなシステムは、ハマス工作員のプロフィールを作成するために一連のデータに基づいてトレーニングされます。これは、性別、年齢、外見、動作パターン、ソーシャル ネットワーク関係、アクセサリー、その他に関するデータである可能性があります。関連する機能「。その後、彼らは適合度によって実際のパレスチナ人をこのプロファイルに一致させる作業を行います。ターゲットの関連する特徴を構成するカテゴリは、必要に応じて厳密に設定することも、緩く設定することもできます。ラベンダーの場合、それは次の 1 つであるようです。」重要な方程式は「男性は戦闘的である」ということでした。これには悪名高い言葉の響きがあります。「兵役年齢の男性全員が潜在的な標的となる」オバマ政権が敵とみなした数百人を特定し、暗殺​​した2010年の米国無人機戦争の任務。」メタデータに基づいて」。

AI を組み合わせた場合の違いは、アルゴリズムによってターゲットを決定できる速度と、これによって課される行動の義務です。+972 レポートは、このテクノロジーの使用により、人間の監視がほとんどなく、数千の適格および不適格の標的を迅速かつ冷静に殲滅したことを示しています。

イスラエル国防軍(IDF)は、この種のAI標的システムの使用を即座に否定した。そして、それらが使用されているかどうか、使用されている場合にはその範囲、およびそれらがどのように正確に機能するかを独自に検証することは困難です。しかし、特にIDF自身が「最も技術的な組織の一つ」とAIの早期導入者でもあります。

世界中の軍事 AI プログラムが、米軍の言うところの時間を短縮しようと努めています。「センサーから射撃者までのタイムライン」そして「致死率を高める」IDF のような組織は、なぜ作戦において最新テクノロジーを活用しないのでしょうか?

実際のところ、「Lavender」や「Where's Daddy?」などのシステムは、これは、ここ 10 年間にわたって進行してきたより広範な傾向の現れであり、より多くの AI を対象としたシステムをプロセスに導入しようとしているのは、IDF とそのエリート部隊だけではありません。

機械が人間に勝つとき

今年の初めに、ブルームバーグは最新バージョンのプロジェクト・メイブン、米国国防総省の AI パスファインダー プログラム。2017 年のセンサー データ分析プログラムから、速度を重視して構築された本格的な AI 対応の目標推奨システムに進化しました。ブルームバーグ記者カトリーナ・マンソン役レポート、オペレーターは「1 時間の作業で最大 80 のターゲットにサインオフできるようになりました。一方、サインオフしないと 30 のターゲットにサインオフできるようになりました」。

マンソン氏は、このシステムを学習する任務を負った米軍将校が、「受け入れ、受け入れ、受け入れ」という早い音で発せられるアルゴリズムの結論に同意するプロセスを説明していると引用している。ここで明らかなのは、デジタルロジックに深く埋め込まれており、異議を唱えるのは困難です。これにより、他のすべてに勝る速度と出力の増加というロジックが生まれます。

死の効率的な生産は+972のアカウントにも反映されており、標的の生産とこれらの標的の殺害を加速および増加させるという巨大な圧力を示しています。情報筋の一人が言うように、「我々は常に圧力をかけられていた。もっと多くの標的を連れて来い。彼らは本当に我々に怒鳴った。我々は非常に早く標的を殺害し終えた。」

内蔵バイアス

ラベンダーのようなシステムは多くのことを引き起こしますこれは、トレーニング データ、バイアス、精度、エラー率、そして重要なことに、自動化バイアスの問題に関係します。自動化バイアスは、道徳的権威を含むすべての権限を統計処理の冷静なインターフェイスに譲渡します。

スピードと致死性は軍事技術の合言葉です。しかし、AI を優先する場合、人間の主体性疎外されている。人間の認知システムは比較的遅いため、システムのロジックにはこれが必要です。また、コンピューターが生成した結果に対する人間の責任感も取り除かれます。

私は他の場所で書かれたこれが(あらゆるレベルでの)制御の概念をどのように複雑にするかを考慮する必要があります。AI、機械学習、人間の推論が緊密なエコシステムを形成すると、人間の制御能力には限界があります。人間は、コンピューターの言うことを何でも信頼する傾向があり、特にコンピューターの動きが速すぎてついていけない場合にはそうです。

速度と加速の問題もまた、一般的な緊迫感を生み出し、非行動よりも行動が優先されます。これにより、暴力を抑制する役割を果たすべき「巻き添え被害」や「軍事的必要性」などのカテゴリーが、さらなる暴力を生み出す経路へと変わってしまいます。

軍事学者クリストファー・コーカーの著書を思い出します。言葉:「私たちは道具を慎重に選ばなければなりません。それは非人道的だからではなく(すべての武器がそうです)、私たちがそれらに依存すればするほど、それらが私たちの世界観を形作るからです。」軍事 AI が私たちの世界観を形作っていることは明らかです。悲しいことに、ラベンダーは私たちに、この見方には暴力が満ちていることを認識させるきっかけを与えてくれます。

この記事はから転載されています会話クリエイティブ・コモンズ・ライセンスに基づいて。読んでください元の記事The Conversation

引用:イスラエル、AIを利用して人間の標的を特定、無実の人々が網に引っかかっているとの懸念が高まる(2024年4月15日)2024 年 4 月 15 日に取得https://techxplore.com/news/2024-04-israel-ai-human-innocents-caught.html より

この文書は著作権の対象です。個人的な研究や研究を目的とした公正な取引を除き、書面による許可なく一部を複製することができます。コンテンツは情報提供のみを目的として提供されています。