New tools use AI 'fingerprints' to detect altered photos, videos
Binghamton University 연구팀은 널리 사용되는 생성 AI 도구를 사용하여 수천 개의 이미지를 만든 다음 신호 처리 기술을 사용하여 분석했습니다.크레딧: Binghamton University, 뉴욕 주립대학교

인공 지능 네트워크가 더욱 숙련되고 접근하기 쉬워짐에 따라 디지털 방식으로 조작된 "딥페이크" 사진과 비디오를 탐지하기가 점점 더 어려워지고 있습니다.뉴욕주립대학교 빙엄턴대학교(Binghamton University)가 주도한 새로운 연구는 주파수 도메인 분석 기술을 사용하여 이미지를 분석하고 AI에 의해 생성되었음을 나타낼 수 있는 이상 현상을 찾습니다.

종이에출판됨~에정보 과학의 파괴적 기술 VIII, 박사학생 Nihal Poredi, Deeraj Nagothu 및 Binghamton 전기 및 컴퓨터 공학과의 Yu Chen 교수는 길쭉한 손가락이나 횡설수설하는 배경 텍스트와 같은 이미지 조작의 명백한 징후를 넘어 실제 이미지와 가짜 이미지를 비교했습니다.또한 이 논문에는 석사과정 학생인 Monica Sudarsan과 버지니아 주립대학교의 Enoch Solomon 교수도 공동으로 참여했습니다.

팀은 Adobe Firefly, PIXLR, DALL-E, Google Deep Dream과 같은 널리 사용되는 생성 AI 도구를 사용하여 수천 장의 이미지를 만든 다음 신호 처리 기술을 사용하여 분석하여 주파수 영역 특성을 이해할 수 있었습니다.AI가 생성한 이미지와 자연 이미지의 주파수 영역 특성의 차이는 머신러닝 모델을 사용해 이를 구별하는 기초가 됩니다.

GANIA(Generative Adversarial Networks Image Authentication)라는 도구를 사용하여 이미지를 비교할 때 연구원은 AI가 가짜를 생성하는 방식으로 인해 이상 현상(아티팩트라고 함)을 발견할 수 있습니다.AI 이미지를 구축하는 가장 일반적인 방법은 업샘플링으로, 픽셀을 복제하여 파일 크기를 늘리지만 주파수 영역에는 지문을 남깁니다.

"실제 카메라로 사진을 찍으면 사진을 찍고 싶은 사람, 꽃, 동물, 사물뿐만 아니라 온갖 환경 정보가 담겨 있어 전 세계의 정보를 얻게 됩니다."라고 첸이 말했다.

"생성 AI를 사용하면 이미지는 아무리 상세하더라도 생성하도록 요청한 것에 초점을 맞춥니다. 예를 들어 공기의 질이 어떤지, 바람이 어떻게 불고 있는지 또는 모든 작은 것들을 설명할 수 있는 방법은 없습니다.배경 요소."

Nagothu는 "새로운 AI 모델이 많이 있지만 이러한 모델의 기본 아키텍처는 거의 동일하게 유지됩니다. 이를 통해 우리는 콘텐츠 조작의 예측 특성을 활용하고 고유하고 신뢰할 수 있는 지문을 활용하여 이를 탐지할 수 있습니다."라고 덧붙였습니다.

연구 논문은 또한 GANIA를 사용하여 사진의 AI 출처를 식별하여 딥페이크 이미지를 통해 확산되는 잘못된 정보를 제한할 수 있는 방법을 탐구합니다.

Poredi는 "우리는 다양한 AI 이미지 생성기의 '지문'을 식별할 수 있기를 원합니다."라고 말했습니다."이를 통해 우리는 시각적 콘텐츠를 인증하고 잘못된 정보 캠페인과 관련된 부작용을 예방하기 위한 플랫폼을 구축할 수 있습니다."

딥페이크와 함께, 팀은 가짜 AI 기반 오디오-비디오 녹음을 탐지하는 기술을 개발했습니다."DeFakePro"라는 개발된 도구는 전력망의 약간의 전기적 변동으로 인해 생성된 전기 네트워크 주파수(ENF) 신호라는 환경 지문을 활용합니다.미묘한 배경 소음처럼 이 신호는 미디어 파일이 기록될 때 자연스럽게 미디어 파일에 포함됩니다.

DeFakePro 도구는 녹음 시간과 장소에 고유한 이 신호를 분석하여 녹음이 진짜인지 또는 변조되었는지 확인할 수 있습니다.이 기술은 딥페이크에 매우 효과적이며 AI 기반 위조 공격으로부터 대규모 스마트 감시 네트워크를 보호할 수 있는 방법을 추가로 탐색합니다.이 접근 방식은 점점 더 연결되는 세상에서 잘못된 정보와 디지털 사기에 맞서 싸우는 데 효과적일 수 있습니다.

"잘못된 정보는 오늘날 글로벌 커뮤니티가 직면한 가장 큰 과제 중 하나입니다."라고 Poredi는 말했습니다."많은 분야에서 생성 AI의 광범위한 사용으로 인해 오용이 발생했습니다. 소셜 미디어에 대한 의존도와 결합하여 이는 잘못된 정보 재앙의 발화점을 만들었습니다. 이는 특히 소셜 미디어 및 발언에 대한 제한이 최소화된 국가에서 두드러집니다.따라서 온라인으로 공유되는 데이터, 특히 시청각 데이터의 온전성을 보장하는 것이 필수적입니다."

생성적 AI 모델은 오용되기도 했지만 이미징 기술 발전에 크게 기여합니다.연구원들은 대중이 가짜 콘텐츠와 실제 콘텐츠를 구별할 수 있도록 돕고 싶어하지만 최신 혁신 기술을 따라가는 것이 어려울 수 있습니다.

Chen은 "AI는 매우 빠르게 움직이기 때문에 일단 딥페이크 탐지기를 개발하면 차세대 AI 도구가 이러한 이상 현상을 고려하여 수정합니다."라고 Chen은 말했습니다."우리 작업은 고정관념 밖에서 뭔가를 하려고 노력하고 있습니다."

추가 정보:Nihal Poredi 외, 주파수 영역 분석을 사용한 생성적 적대 네트워크 기반 AI 생성 이미지 인증,정보 과학의 파괴적인 기술 VIII(2024).DOI: 10.1117/12.3013240

소환:AI '지문'을 사용하여 변경된 사진, 비디오를 감지하는 새로운 도구(2024년 9월 12일)2024년 9월 12일에 확인함https://techxplore.com/news/2024-09-tools-ai-fingerprints-photos-videos.html에서

이 문서는 저작권의 보호를 받습니다.사적인 학습이나 조사를 목적으로 하는 공정한 거래를 제외하고는 어떠한 행위도 허용되지 않습니다.서면 허가 없이 일부를 복제할 수 있습니다.콘텐츠는 정보 제공 목적으로만 제공됩니다.