AI models for remote object detection are vulnerable to both physical and digital attacks
이 그림은 원격 감지의 맥락에서 디지털 공격과 물리적 공격의 차이점을 보여줍니다.다음과 같은 사실이 관찰됩니다. 물리적 공격의 경우 공격자는 의도적으로 잘못된 예측을 유도하기 위해 실제 대상이나 이미징 프로세스를 조작합니다.디지털 공격의 경우 공격자는 영상장치에서 캡쳐한 영상 데이터의 픽셀값을 직접 변조하여 공격을 실행한다.크레딧: 노스웨스턴 폴리테크니컬 대학교(Northwestern Polytechnical University) Jiawei Lian

오늘날 우리 주변 세계의 물리적 특성에 대한 우리의 이해와 평가는 점점 더 인간 지능에 의존하기보다는 인공 지능에 더 많이 의존하고 있습니다.

원격 감지(RS) 기술은 정부 정보, 환경 모니터링, 자율 교통, 도시 계획 및 재난 관리에 중요한 도구가 되었습니다.하지만 제작된 수많은 이미지는처리되고 해석되어야 하며 이러한 작업은 점점 더 딥 러닝(DL) 모델에 위임되고 있습니다.

DL 모델은 인간보다 훨씬 빠르게 이미지를 처리하고 해석할 수 있으며, 최근 AI의 발전으로 인해 시간이 지남에 따라 이 용량이 향상되었습니다.이러한 효율성 증가에도 불구하고 DNN(심층 신경망) 기반 모델의 전반적인 견고성과 잠재적 취약성을 평가하려는 연구는 없습니다.RS 이미지의 이미지 분류.

이 문제를 해결하기 위해 Northwestern Polytechnical University와 Hong Kong Polytechnic University의 과학자 팀은 RS 이미지를 사용하여 객체 감지 및 분류에 사용되는 DL 모델의 견고성에 대한 모든 기존 연구 연구를 검토하고 벤치마크를 개발했습니다.다양한 DL 모델 탐지기(예: YOLO 버전, RetinaNet, FreeAnchor)의 성능.비판적으로, 그들의 분석에서는 공격자가 활용할 수 있는 개체 감지를 위한 DL 알고리즘의 여러 취약점이 밝혀졌습니다.

리뷰를 게시했습니다에서원격 탐사 저널.

"우리는 특히 이미지 분류 및 물체 감지에 초점을 맞춘 원격 감지 작업에 사용되는 딥 러닝 모델의 견고성에 대한 포괄적인 연구가 부족한 점을 해결하려고 노력했습니다. 우리의 목표는 다양한 유형의 소음, 특히 적대적인 소음에 대한 이러한 모델의 취약성을 이해하는 것이었습니다.리뷰 논문의 주저자이자 중국 시안 소재 노스웨스턴 폴리테크니컬 대학교 전자정보대학원 교수 샤오후이 메이(Shaohui Mei)는 이렇게 말했습니다.

보다 구체적으로 팀은 자연 소음과 다양한 공격이 모델 성능에 미치는 영향을 조사했습니다.과학자들은 소금 ​​후추, 무작위 소음, 비, 눈, 안개를 포함한 자연 소음원을 다양한 강도로 사용하여 DL 모델을 사용한 물체 감지 및 식별의 견고성을 테스트했습니다.

AI models for remote object detection are vulnerable to both physical and digital attacks
물리적 공격의 경우 정교한 물리적 섭동은 물리적 세계에서 공격을 수행하기 위해 도메인 간 변환, 즉 디지털에서 물리적으로, 물리적에서 디지털로 변환을 거쳐야 하지만 디지털 공격에서는 필요하지 않습니다.크레딧: 노스웨스턴 폴리테크니컬 대학교(Northwestern Polytechnical University) Jiawei Lian

또한 팀은 FGSM(Fast Gradient Sign Method), AutoAttack, Projected Gradient Descent, Carlini & Wagner 및 Momentum Iterative FGSM을 포함하여 모델의 취약점을 악용하기 위해 다양한 디지털 공격을 사용하여 모델 성능을 테스트했습니다.그들은 또한 DL 모델을 손상시키기 위해 패치를 물체나 물체의 배경에 물리적으로 칠하거나 부착할 수 있는 잠재적인 물리적 공격의 영향을 확인했습니다.

연구원들은 DL 모델에서 잠재적인 공격자가 악용할 수 있는 많은 취약점을 발견했습니다."딥 러닝 모델은 강력한 기능에도 불구하고, 적의 공격을 포함한 다양한 종류의 방해에 취약합니다.이러한 기술의 개발자와 사용자는 이러한 취약점을 인식하고 실제 조건에서 안정적인 성능을 보장하기 위해 모델 견고성을 개선하기 위해 노력하는 것이 중요합니다."라고 Northwestern Polytechnical University 전자 정보 대학원생인 Jiawei Lian은 말했습니다.그리고 논문의 저자.

다른 연구자들이 이러한 애플리케이션에서 DL 모델 견고성을 향상할 수 있도록 저자는 다양한 모델, 노이즈 유형 및 공격에 대한 분석 결과를 요약했습니다.

  • 적대적 공격 훈련은 신경망 훈련과 많은 유사점을 공유하며 훈련 데이터, 피해자 모델(적대적 공격을 생성하는 데 사용되는 모델) 및 최적화 전략.
  • YOLOv2와 같은 약한 탐지기는 DL 모델을 성공적으로 공격하기 위해 제한된 정보만 학습해야 할 수 있지만 일반적으로 더 강력한 탐지기에서는 공격이 성공하지 못합니다.
  • "기세" 및 "드롭아웃"과 같은 기술은 공격의 효율성을 높일 수 있습니다.교육 전략 및 테스트 확대에 대한 조사를 통해 DNN 모델 보안을 향상할 수 있습니다.
  • 물리적 공격은 디지털 공격과 마찬가지로 효과적일 수 있습니다.DL 모델의 취약성은 이러한 약점을 악용할 수 있는 DL 알고리즘을 손상시키기 위한 물리적 패치 첨부와 같은 잠재적인 실제 애플리케이션으로 변환되어야 합니다.
  • 연구원들은 공격자가 프로세스를 어떻게 조작하고 방해할 수 있는지 이해하기 위해 DL 모델의 특징 추출 메커니즘을 알아낼 수 있습니다.
  • 객체의 배경을 조작하여 객체를 올바르게 감지하고 식별하는 DL 모델의 기능을 손상시킬 수 있습니다.
  • 대상의 배경에 물리적 패치를 사용하는 적대적 공격은 대상 자체에 패치를 부착하는 것보다 더 실용적일 수 있습니다.

연구팀은 분석이 RS DL 모델 견고성을 향상하기 위한 청사진만을 제공한다는 점을 인정합니다.

"[우리의] 다음 단계에는 벤치마킹 프레임워크를 더욱 개선하고 더 넓은 범위의 모델 및 노이즈 유형을 사용하여 더 광범위한 테스트를 수행하는 것이 포함됩니다. 우리의 궁극적인 목표는 RS를 위한 더욱 강력하고 안전한 DL 모델 개발에 기여하는 것입니다.다음과 같은 중요한 응용 분야에서 이러한 기술의 신뢰성과 효율성을 향상시킵니다., 재난 대응 및 도시 계획"이라고 Mei는 말했습니다.

중국 시안 소재 Northwestern Polytechnical University 전자 정보 학부의 Xiaofei Wang, Yuru Su 및 Mingyang Ma와 홍콩 폴리테크닉 대학교 전기 전자 공학과의 Lap-Pui Chau도 이 연구에 기여했습니다.

추가 정보:Shaohui Mei 외, 원격 탐사에서 딥 러닝 기반 이미지 분류 및 객체 감지의 견고성에 대한 종합 연구: 측량 및 벤치마킹,원격 탐사 저널(2024).DOI: 10.34133/remotesensing.0219

제공자:원격 탐사 저널

소환:원격 객체 감지를 위한 AI 모델은 물리적 공격과 디지털 공격 모두에 취약하다는 연구 결과가 나왔습니다(2024년 10월 17일)2024년 10월 17일에 확인함https://techxplore.com/news/2024-10-ai-remote-vulnerable-physical-digital.html에서

이 문서는 저작권의 보호를 받습니다.사적인 학습이나 조사를 목적으로 하는 공정한 거래를 제외하고는 어떠한 행위도 허용되지 않습니다.서면 허가 없이 일부를 복제할 수 있습니다.콘텐츠는 정보 제공 목적으로만 제공됩니다.