New tools use AI 'fingerprints' to detect altered photos, videos
Un equipo de investigación de la Universidad de Binghamton creó miles de imágenes con herramientas populares de inteligencia artificial generativa y luego las analizó utilizando técnicas de procesamiento de señales.Crédito: Universidad de Binghamton, Universidad Estatal de Nueva York

A medida que las redes de inteligencia artificial se vuelven más hábiles y de más fácil acceso, las fotos y videos "deepfake" manipulados digitalmente son cada vez más difíciles de detectar.Una nueva investigación dirigida por la Universidad de Binghamton, Universidad Estatal de Nueva York, descompone imágenes utilizando técnicas de análisis del dominio de frecuencia y busca anomalías que podrían indicar que son generadas por IA.

en un papelpublicadoenTecnologías Disruptivas en Ciencias de la Información VIII, Doctorado.El estudiante Nihal Poredi, Deeraj Nagothu y el profesor Yu Chen del Departamento de Ingeniería Eléctrica e Informática de Binghamton compararon imágenes reales y falsas más allá de signos reveladores de manipulación de imágenes, como dedos alargados o texto de fondo galimatías.También colaboraron en el artículo la estudiante de maestría Monica Sudarsan y el profesor Enoch Solomon de la Universidad Estatal de Virginia.

El equipo creó miles de imágenes con herramientas populares de inteligencia artificial generativa, como Adobe Firefly, PIXLR, DALL-E y Google Deep Dream, y luego las analizó utilizando técnicas de procesamiento de señales para poder comprender sus características en el dominio de la frecuencia.La diferencia en las características del dominio de frecuencia de las imágenes naturales y generadas por IA es la base para diferenciarlas utilizando un modelo de aprendizaje automático.

Al comparar imágenes utilizando una herramienta llamada Autenticación de imágenes de redes adversarias generativas (GANIA), los investigadores pueden detectar anomalías (conocidas como artefactos) debido a la forma en que la IA genera los falsos.El método más común para crear imágenes de IA es el muestreo ascendente, que clona píxeles para aumentar el tamaño de los archivos, pero deja huellas digitales en el dominio de la frecuencia.

"Cuando tomas una fotografía con una cámara real, obtienes información de todo el mundo, no solo de la persona, la flor, el animal o el objeto que deseas fotografiar, sino que también se incluye todo tipo de información ambiental".", Dijo Chen.

"Con la IA generativa, las imágenes se centran en lo que le pides que genere, sin importar cuán detalladas sean. No hay manera de describir, por ejemplo, cuál es la calidad del aire o cómo sopla el viento o todas las pequeñas cosas que hay.elementos de fondo."

Nagothu añadió: "Si bien hay muchos modelos de IA emergentes, la arquitectura fundamental de estos modelos sigue siendo prácticamente la misma. Esto nos permite explotar la naturaleza predictiva de su manipulación de contenido y aprovechar huellas digitales únicas y confiables para detectarlo".

El artículo de investigación también explora formas en que GANIA podría usarse para identificar los orígenes de la IA de una fotografía, lo que limita la difusión de información errónea a través de imágenes ultrafalsas.

"Queremos poder identificar las 'huellas dactilares' de diferentes generadores de imágenes de IA", dijo Poredi."Esto nos permitiría construir plataformas para autenticar contenido visual y prevenir cualquier evento adverso asociado con campañas de desinformación".

Junto con deepfaked, el equipo ha desarrollado una técnica para detectar grabaciones de audio y vídeo falsas basadas en IA.La herramienta desarrollada llamada "DeFakePro" aprovecha las huellas digitales ambientales llamadas señal de frecuencia de la red eléctrica (ENF) creada como resultado de ligeras fluctuaciones eléctricas en la red eléctrica.Como un sutil zumbido de fondo, esta señal se incrusta naturalmente en los archivos multimedia cuando se graban.

Al analizar esta señal, que es única para el momento y el lugar de la grabación, la herramienta DeFakePro puede verificar si la grabación es auténtica o si ha sido manipulada.Esta técnica es muy eficaz contra los deepfakes y explora más a fondo cómo puede proteger redes de vigilancia inteligentes a gran escala contra este tipo de ataques de falsificación basados ​​en IA.El enfoque podría resultar eficaz en la lucha contra la desinformación y el fraude digital en nuestro mundo cada vez más conectado.

"La desinformación es uno de los mayores desafíos que enfrenta hoy la comunidad global", afirmó Poredi."El uso generalizado de la IA generativa en muchos campos ha llevado a su mal uso. Combinado con nuestra dependencia de las redes sociales, esto ha creado un punto álgido para un desastre de desinformación. Esto es particularmente evidente en países donde las restricciones a las redes sociales y la expresión son mínimas.Por lo tanto, es imperativo garantizar la integridad de los datos compartidos en línea, específicamente los datos audiovisuales".

Aunque los modelos de IA generativa se han utilizado incorrectamente, también contribuyen significativamente al avance de la tecnología de imágenes.Los investigadores quieren ayudar al público a diferenciar entre contenido falso y real, pero mantenerse al día con las últimas innovaciones puede ser un desafío.

"La IA se está moviendo tan rápido que una vez que se ha desarrollado un detector de falsificaciones, la próxima generación de esa herramienta de IA toma en cuenta esas anomalías y las corrige", dijo Chen."Nuestro trabajo es tratar de hacer algo fuera de lo común".

Más información:Nihal Poredi et al, Autenticación de imágenes generadas por IA basada en redes adversativas generativas mediante análisis de dominio de frecuencia,Tecnologías Disruptivas en Ciencias de la Información VIII(2024).DOI: 10.1117/12.3013240

Citación:Nuevas herramientas utilizan 'huellas dactilares' de IA para detectar fotos y videos alterados (2024, 12 de septiembre)recuperado el 12 de septiembre de 2024de https://techxplore.com/news/2024-09-tools-ai-fingerprints-photos-videos.html

Este documento está sujeto a derechos de autor.Aparte de cualquier trato justo con fines de estudio o investigación privados, noparte puede ser reproducida sin el permiso por escrito.El contenido se proporciona únicamente con fines informativos.