Researchers probe safety of AI in driverless cars, find vulnerabilities
UB の自動運転リンカーン MKZ セダンは、研究者が攻撃に対する脆弱性をテストするために使用した車両の 1 つです。提供: バッファロー大学

人工知能は自動運転車の重要なテクノロジーです。意思決定、センシング、予測モデリング、その他のタスクに使用されます。しかし、これらの AI システムは攻撃に対してどれほど脆弱なのでしょうか?

バッファロー大学で進行中の研究ではこの疑問が検討されており、その結果、悪意のある攻撃者がこれらのシステムの障害を引き起こす可能性があることが示唆されています。たとえば、車両上に 3D プリントされたオブジェクトを戦略的に配置して、車両が検出されないようにすることで、AI 搭載のレーダー システムから車両を見えなくすることができる可能性があります。

研究者らによると、この研究は管理された研究環境で行われているため、既存の自動運転車が安全ではないというわけではないという。それにもかかわらず、政府の規制当局や政策立案者だけでなく、自動車、テクノロジー、保険などの業界にも影響を及ぼす可能性がある。

「今日でも斬新ですが、「これらの車両は、近い将来、主要な交通手段となる準備が整っています」と、この研究を主導するニューヨーク大学コンピュータ科学工学部の特別教授、Chunming Qiao 氏は述べています。、特に人工知能モデルは、敵対的な行為から安全です。これはバッファロー大学で私たちが熱心に取り組んでいることです。」

この研究は、2021 年に遡る一連の論文で説明されています。出版されたコンピューターおよび通信セキュリティ (CCS) に関する 2021 ACM SIGSAC カンファレンスの議事録。最近の例としては、次のようなものがあります。5月から勉強します第 30 回モバイル コンピューティングとネットワーキングに関する年次国際会議の議事録(一般的には Mobicom として知られています)、今月の第 33 回 USENIX セキュリティ シンポジウムでの別の研究は、以下で入手できます。arXiv

ミリ波検出は効果的ですが脆弱です

過去 3 年間、Yi Zhu 氏と Qiao 氏のチームの他のメンバーは、UB の北キャンパスで自動運転車のテストを行ってきました。

博士号を取得した朱さん。5月にUBコンピュータサイエンス工学部を卒業し、最近ウェイン州立大学の教員職に採用されました。サイバーセキュリティの専門家である彼は、ライダー、レーダー、カメラ、およびこれらのセンサーを融合したシステムの脆弱性に焦点を当てた前述の論文の主著者です。

「自動運転では、[ミリ波]レーダーは、多くのカメラよりも雨、霧、照明条件が悪い場合でも信頼性が高く、正確であるため、物体検出に広く採用されています。」とZhu氏は言います、「しかし、レーダーはデジタル的にも、直接的にもハッキングされる可能性があります。」

この理論のそのようなテストの 1 つとして、研究者らは 3D プリンターと金属箔を使用して、「タイル マスク」と呼ばれる特定の幾何学的形状の物体を製造しました。車両に 2 つのタイル マスクを配置すると、レーダー検出において AI モデルを誤解させ、この車両がレーダーから消えてしまう可能性があることが判明しました。

タイルマスクに関する研究は、コンピュータおよび通信セキュリティに関する 2023 年 ACM SIGSAC カンファレンスの議事録2023年11月に。

Researchers probe safety of AI in driverless cars, find vulnerabilities
UBの研究者らは、3Dプリンターと金属箔を使用して、車両上に戦略的に配置してレーダー探知から消えることができる特定の幾何学的形状の物体を製造した。クレジット: バッファロー大学

攻撃動機には保険詐欺、AV 競争などが含まれる可能性がある

Zhu 氏は、AI は大量の情報を処理できる一方で、処理するように訓練されていない特別な指示が与えられると、混乱して誤った情報を提供する可能性があると指摘しています。

「猫の写真があり、AI はこれが猫であると正しく識別できると仮定しましょう。しかし、画像内のいくつかのピクセルをわずかに変更すると、AI はこれが犬の画像であると判断する可能性があります」と Zhu 氏は言います。「これは AI の敵対的な例です。近年、研究者はさまざまな AI モデルに対して多くの敵対的な例を発見または設計しました。そこで私たちは自問しました。AI モデルの例を設計することは可能でしょうか??」

研究者らは、潜在的な攻撃者は、ドライバーが旅行を開始する前、一時的に駐車する前、または信号で停止する前に、敵対的な物体を車両に密かに貼り付ける可能性があると指摘しました。歩行者が着ているバックパックなどの中に物体を置き、その歩行者の検出を効果的に消去することもできる、とZhu氏は言う。

このような攻撃の動機としては、保険金詐欺による事故の発生、企業間の競争などが考えられます。企業、または他の車両の運転手や同乗者に危害を加えたいという個人的な願望。

研究者らによると、シミュレートされた攻撃では、攻撃者が被害者の車両のレーダー物体検出システムについて十分な知識を持っていることを前提としていることに注意することが重要だという。この情報を入手することは可能ですが、一般の人が入手できる可能性は非常に低いです。

セキュリティは他のテクノロジーに比べて遅れている

ほとんどの AV 安全技術は車両の内部部分に焦点を当てていますが、外部の脅威に着目した研究はほとんどありません、と Zhu 氏は言います。

「セキュリティは他のテクノロジーに比べて若干遅れをとっています」と彼は言います。

研究者たちはこのような攻撃を阻止する方法を検討してきましたが、明確な解決策はまだ見つかっていません。

「確実な防御を確立するには長い道のりがあると思います」と朱氏は言う。「将来的には、レーダーだけでなく、カメラや動作計画などの他のセンサーのセキュリティも調査したいと考えています。また、これらの攻撃を軽減するための防御ソリューションを開発したいと考えています。」

詳細情報:Yang Lou 他、自動運転における LiDAR 誘発の欺瞞による最初の物理世界軌道予測攻撃、arXiv(2024年)。DOI: 10.48550/arxiv.2406.11707

Yi Zhu 他、自動運転におけるマルチセンサー フュージョンに対する悪意のある攻撃、第 30 回モバイル コンピューティングとネットワーキングに関する年次国際会議の議事録(2024年)。DOI: 10.1145/3636534.3649372

Yi Zhu 他、TileMask: 自動運転におけるミリ波レーダー物体検出に対する受動的反射ベースの攻撃、コンピュータおよび通信セキュリティに関する 2023 年 ACM SIGSAC カンファレンスの議事録(2023年)。DOI: 10.1145/3576915.3616661

雑誌情報: arXiv

引用:研究者らは自動運転車の AI の安全性を調査し、脆弱性を発見 (2024 年 9 月 2 日)2024 年 9 月 2 日に取得https://techxplore.com/news/2024-09-probe-safety-ai-driverless-cars.html より

この文書は著作権の対象です。個人的な研究や研究を目的とした公正な取引を除き、書面による許可なく一部を複製することができます。コンテンツは情報提供のみを目的として提供されています。