Detecting AI-manipulated content is a challenging arms race
Un grupo de estudiantes de DTU desarrolló un modelo deepfake que permitió al artista surcoreano Haegue Yang hablar danés en una exposición en SMK (Statens Museum for Kunst).Crédito: DTU

Fotos de desnudos de la superestrella del pop Taylor Swift inundaron recientemente las redes sociales X, donde fueron vistas y compartidas por millones de usuarios.Pero las imágenes no eran reales: eran falsificaciones creadas utilizando inteligencia artificial (IA).El incidente avivó el debate sobre la regulación de los deepfakes y llamó tanta atención que la Casa Blanca se involucró.

Ahora se están discutiendo soluciones entre políticos y grandes empresas tecnológicas.¿Pero es posible siquiera protegerse contra este tipo de ataque?Según Morten Mørup, que investiga en inteligencia artificial en DTU Compute, podría ser una tarea muy difícil.

Usos profundospara crear texto, imágenes, discursos oque se presentan como reales pero están lejos de serlo.El desarrollo de deepfakes despegó en 2014 cuando se desarrolló el principio de aprendizaje de IA de la Red Generativa Adversaria (GAN).

El principio permite que los modelos de IA se entrenen con otros modelos de IA diseñados para detectar deepfakes.Desde entonces, se han desarrollado modelos de IA que hacen que sea aún más difícil distinguir entre lo falso y la realidad, y hay muchosprofundo"El principio de aprendizaje de GAN se basa en una carrera armamentista entre dos modelos de IA: uno que genera deepfakes y otro que intenta distinguir entre lo real y lo creado por IA. Los modelos deepfake se prueban a sí mismos contra modelos diseñados para detectarlos. Si el

El modelo de IA diseñado para producir deepfakes se entrena con otro modelo de IA diseñado para determinar si, por ejemplo, una imagen es real o falsa; aprenderá de este modelo de IA cómo debe mejorar.

"Esta carrera entre dos modelos de IA, uno que intenta generar y el otro que detecta material falso, continuará hasta que se detectemodeloEsto es lo que hace que sea tan difícil para las personas y los modelos de IA distinguir entre lo real y lo falso", dice Mørup.

¿Qué son los deepfakes?

Los deepfakes son textos, imágenes, sonidos, discursos o videos generados por computadora que se presentan como reales, pero no lo son.Puede resultar muy difícil para un humano discernir si algo es real o generado por IA; en algunos casos, casi imposible.Los deepfakes a menudo se generan basándose en el principio de aprendizaje GAN, pero en la actualidad también existen muchos otros métodos para generar deepfakes.

Las empresas de tecnología y los investigadores están trabajando para desarrollar modelos de inteligencia artificial que puedan detectar deepfakes, pero incluso estos modelos pueden tener dificultades para distinguir la diferencia.

A ver si puedes notar la diferencia.(Este sitio web de 2019 se basa en GAN y desde entonces se han desarrollado herramientas deepfake aún mejores).

Las declaraciones no son garantía

un estudiode DR (en danés) descubrió que 1 de cada 3 niños de 9 años a 14 años nunca considera la posibilidad de que las fotos y videos en las redes sociales puedan ser manipulados.Los numerosos deepfakes han llevado a Meta, propietaria de Facebook e Instagram, a hacer un esfuerzo para detectar imágenes y vídeos generados por computadora.

Al mismo tiempo, la Ley de IA de la UE, la primera legislación sobre IA del mundo, hará obligatorio declarar el contenido generado por computadora.Sin embargo, aunque se está redactando una normativa en este ámbito ybuscará detectar deepfakes, Mørup cree que no hay garantía de que podamos evitar ver mucho más contenido deepfake en el futuro.

"Comenzar a declarar deepfakes es definitivamente un paso importante, pero todavía habrá personas que puedan generar contenido sin que sea declarado. Se están realizando investigaciones sobre el desarrollo de detectores de deepfake basados ​​en IA, pero luego volvemos a la carrera armamentista. Y esuncarrera de armamentosPor lo tanto, no debemos hacer la vista gorda y dar por sentado que todo lo que no se declara como deepfake es real", afirma Mørup.

Actualmente existe otro método para detectar deepfakes que pasa por alto por completo la IA y se basa en una investigación exhaustiva.

"Puedes intentar comparar un deepfake con otra información. Si un videoclip muestra algo que sucedió en Ucrania, por ejemplo, puedes compararlo con fotos satelitales e información meteorológica del momento para ver si todo coincide con el videoclip. Por ejemplo¿Estaba lloviendo ese día, pero el videoclip muestra un cielo sin nubes?

"El único problema es que los modelos de IA también pueden tener acceso a la información con la que comparamos el vídeo. Así que un buen deepfake garantizará que llueva en el vídeo", afirma Mørup.

Un mundo de desinformación

En 2019, el director ejecutivo de una empresa energética británica recibió una llamada de lo que creía que era su superior en la empresa matriz en Alemania, diciéndole que transfiriera 220.000 euros a una cuenta bancaria.En realidad, el director ejecutivo había sido engañado por un deepfake.Un estafador utilizó IA para generar la voz de su superior de manera tan convincente que el director transfirió el dinero inmediatamente.En febrero de 2024, una gran empresa de Hong Kong sufrió un incidente similar y fue defraudada por 25,6 millones de dólares.

En Dinamarca, el Ministerio de Asuntos Exteriores seguirá más de cerca las conversaciones diplomáticas en vídeo después de que el Ministro de Asuntos Exteriores, Lars LøRasmussen (M), sufriera una llamada deepfake el año pasado de un grupo de comediantes rusos que habían falsificado el rostro y la voz.de Moussa Faki, presidente de la comisión de la Unión Africana.

Si bien puede ser muy difícil prevenir estafas similares y la difusión de información errónea generada por deepfakes, Mørup cree que una mayor conciencia de los problemas es clave para limitar el problema.

"Los requisitos de declaración harán que sea más difícil para los usuarios habituales realizar deepfakes sin ser detectados, pero seguirá habiendo actores importantes que defraudarán a otros o influirán en los procesos democráticos. Por lo tanto, debemos reconocer que estas tecnologías existen y actuar en consecuencia.

"Necesitamos practicar la crítica de las fuentes y comprender que vivimos en un mundo de desinformación, donde existe una manipulación que puede ser muy difícil de detectar. Como sociedad, nuestra comprensión común de lo que es real puede verse amenazada. Será un gran problema.si empezamos a rechazar las verdades como información errónea y falsa porque no encajan con nuestra visión del mundo", dice Mørup.

Posteriormente, las imágenes de Taylor Swift se eliminaron y las búsquedas con el nombre de la cantante se desactivaron durante un período en X para evitar que se compartieran nuevas imágenes.Desde entonces, varios políticos estadounidenses, incluida la congresista Yvette Clarke (demócrata), han pedido una legislación que prohíba la creación y el intercambio de deepfakes como contenido pornográfico en Internet.

Citación:Detectar contenido manipulado por IA es una carrera armamentista desafiante (2024, 11 de marzo)recuperado el 11 de marzo de 2024de https://techxplore.com/news/2024-03-ai-content-arms.html

Este documento está sujeto a derechos de autor.Aparte de cualquier trato justo con fines de estudio o investigación privados, noparte puede ser reproducida sin el permiso por escrito.El contenido se proporciona únicamente con fines informativos.