AI models for remote object detection are vulnerable to both physical and digital attacks
この図は、リモート センシングの文脈におけるデジタル攻撃と物理的攻撃の違いを示しています。物理的攻撃の場合、攻撃者は実際のターゲットまたは画像処理を操作して、意図的に誤った予測を誘導します。デジタル攻撃の場合、攻撃者は撮像装置で撮像した画像データの画素値を直接改変して攻撃を実行します。クレジット: Jiawei Lian、ノースウェスタン工科大学

今日、私たちの周囲の世界の物理的特徴の理解と評価は、人間の知性への依存がますます減少し、人工知能への依存がますます高まっています。

リモート センシング (RS) テクノロジーは、政府情報、環境監視、自律交通、都市計画、災害管理にとって重要なツールとなっています。しかし、作成された膨大な数の画像は、を処理して解釈する必要があり、これらのタスクはますますディープ ラーニング (DL) モデルに委任されています。

DL モデルは、人間よりもはるかに迅速に画像を処理および解釈できます。最近の AI の進歩により、この能力は時間の経過とともに向上するばかりです。このような効率の向上にも関わらず、これまでに使用されるディープ ニューラル ネットワーク (DNN) ベースのモデルの全体的な堅牢性と潜在的な脆弱性を評価しようとした研究はありません。RS 画像の画像分類。

この問題に対処するために、ノースウェスタン工科大学と香港理工大学の科学者チームは、RS 画像を使用した物体の検出と分類に使用される DL モデルの堅牢性に関する既存の研究研究をすべてレビューし、評価するためのベンチマークを開発しました。さまざまな DL モデル検出器 (YOLO バージョン、RetinaNet、FreeAnchor など) のパフォーマンス。重要なことに、彼らの分析により、オブジェクト検出のための DL アルゴリズムのいくつかの脆弱性が明らかになり、攻撃者に悪用される可能性があります。

チームレビューを公開しましたリモートセンシングジャーナル

「私たちは、特に画像分類と物体検出に焦点を当てた、リモート センシング タスクで使用される深層学習モデルの堅牢性に関する包括的な研究の不足に対処しようとしました。私たちの目的は、さまざまなタイプのノイズ、特に敵対的なノイズに対するこれらのモデルの脆弱性を理解することでした。」と、中国西安にあるノースウェスタン理工大学電子情報学部の教授であり、レビュー論文の筆頭著者であるシャオフイ・メイ氏は述べた。

より具体的には、チームはモデルのパフォーマンスに対する自然ノイズとさまざまな攻撃の影響を調査しました。研究者らは、塩コショウやランダム ノイズ、雨、雪、霧などの自然ノイズ源をさまざまな強度で使用し、DL モデルを使用した物体検出と識別の堅牢性をテストしました。

AI models for remote object detection are vulnerable to both physical and digital attacks
物理的攻撃の場合、物理世界で攻撃を実行するには、複雑な物理的摂動がクロスドメイン変換を受ける必要があります。つまり、デジタルから物理、物理からデジタルへの変換が必要ですが、デジタル攻撃にはその必要はありません。クレジット: Jiawei Lian、ノースウェスタン工科大学

チームはまた、高速勾配符号法 (FGSM)、Auto Attack、投影勾配降下法、Carlini & Wagner、Momentum Iterative FGSM など、モデルの脆弱性を悪用するさまざまなデジタル攻撃を使用してモデルのパフォーマンスをテストしました。また、パッチを物理的にペイントしたり、物体や物体の背景に貼り付けて DL モデルを損なう可能性がある、潜在的な物理的攻撃の影響も特定しました。

研究者らは、潜在的な敵対者によって悪用される可能性のある DL モデルの多くの脆弱性を発見しました。「深層学習モデルは、その強力な機能にもかかわらず、、敵対的な攻撃など、さまざまな種類の妨害の影響を受けやすくなります。これらのテクノロジーの開発者とユーザーがこれらの脆弱性を認識し、現実世界の状況で信頼できるパフォーマンスを保証するためにモデルの堅牢性の向上に取り組むことが重要です」とノースウェスタン工科大学電子情報学部の大学院生、Jiawei Lian 氏は述べています。そしてその論文の著者。

他の研究者がこれらのアプリケーションにおける DL モデルの堅牢性を向上させるのを支援するために、著者らは、さまざまなモデル、ノイズの種類、および攻撃にわたる分析結果を要約しました。

  • 敵対的攻撃のトレーニングには、ニューラル ネットワークのトレーニングと多くの類似点があり、トレーニング データ、被害者モデルなど、モデルのトレーニングと同じ要素の影響を受けます (敵対的攻撃を生成するために使用されるモデル)と最適化戦略。
  • YOLOv2 のような弱い検出器では、DL モデルへの攻撃を成功させるために限られた情報の学習のみが必要な場合がありますが、より堅牢な検出器では通常、攻撃は成功しません。
  • 「勢い」や「ドロップアウト」などのテクニックにより、攻撃の効果を高めることができます。トレーニング戦略とテストの強化を調査すると、DNN モデルのセキュリティが向上する可能性があります。
  • 物理的攻撃はデジタル攻撃と同様に効果的です。DL モデルの脆弱性は、DL アルゴリズムを侵害する物理パッチの添付など、これらの弱点を悪用する可能性のある潜在的な現実世界のアプリケーションに変換する必要があります。
  • 研究者は、DL モデルの特徴抽出メカニズムを解明して、攻撃者がどのようにプロセスを操作し混乱させるかを理解できます。
  • オブジェクトの背景を操作すると、DL モデルのオブジェクトを正しく検出して識別する機能が損なわれる可能性があります。
  • ターゲットのバックグラウンドで物理パッチを使用する敵対的攻撃は、ターゲット自体にパッチを適用するよりも実用的である可能性があります。

研究チームは、彼らの分析が RS DL モデルの堅牢性を向上させるための青写真にすぎないことを認めています。

「[私たちの]次のステップには、ベンチマーク フレームワークをさらに改良し、より幅広いモデルとノイズ タイプでより広範なテストを実施することが含まれます。私たちの最終的な目標は、RS 用のより堅牢で安全な DL モデルの開発に貢献することです。などの重要なアプリケーションにおけるこれらのテクノロジーの信頼性と有効性を強化します。、災害対応、都市計画」とメイは語った。

中国・西安のノースウェスタン理工大学電子情報学部のXiaofei Wang氏、Yuru Su氏、Mingyang Ma氏、および香港理工大学電気電子工学部のLap-Pui Chau氏もこの研究に貢献した。

詳細情報:Shaohui Mei 他、リモート センシングにおける深層学習ベースの画像分類と物体検出の堅牢性に関する包括的な研究: 測量とベンチマーク、リモートセンシングジャーナル(2024年)。DOI: 10.34133/remotesensing.0219

提供元リモートセンシングジャーナル

引用:遠隔物体検出用の AI モデルは物理的攻撃とデジタル攻撃の両方に対して脆弱であることが研究で判明 (2024 年 10 月 17 日)2024 年 10 月 17 日に取得https://techxplore.com/news/2024-10-ai-remote-vulnerable-physical-digital.html より

この文書は著作権の対象です。個人的な研究や研究を目的とした公正な取引を除き、書面による許可なく一部を複製することができます。コンテンツは情報提供のみを目的として提供されています。