Distinguishing Real Sounds from Deepfakes
Descripción general del pipeline utilizado en los experimentos para la detección de Deepfake, con una representación de la arquitectura de red del MLP.El valor de tenue depende del método de incrustación utilizado.Crédito:Detección de audio ambiental deepfake(2024).

Los videos deepfake generados por inteligencia artificial son cada vez más difíciles de identificar como falsos, un desafío que podría sesgar significativamente los resultados de las próximas elecciones presidenciales.

Laurie Heller, profesora de psicología de la Universidad Carnegie Mellon, colaboró ​​con Hafsa Ouajdi, Oussama Hadder, Modan Tailleur y Mathieu Lagrange de la Escuela Central de Nantes para analizar los errores cometidos por la primera red neuronal profunda.El equipo de investigación desarrolló para clasificar automáticamente los sonidos ambientales como reales o generados por IA.

El equipo de investigación publicó sus hallazgos en el artículo "Detección de audio ambiental deepfake", que presentaron el 27 de agosto en la32ª Conferencia Europea de Procesamiento de Señales(EUSIPCO 2024) en Lyon, Francia.

Los sonidos ambientales se definen como el ruido de fondo de una grabación: cualquier sonido excluyendo el habla y la música.Estos sonidos podrían incluir cosas como un automóvil pasando o una puerta cerrándose en otra habitación.

El detector que desarrolló el equipo de investigación se limita actualmente a identificar siete categorías de sonidos ambientales.Al probar el detector de sonido ambiental, el equipo de la Escuela Central de Nantes descubrió que era increíblemente preciso, lo que finalmente resultó en aproximadamente 100 errores de aproximadamente 6.000 sonidos.

El análisis reveló los dos tipos de errores que podría cometer el detector.El detector podría etiquetar un sonido generado por IA como real o un sonido real como generado por IA.El estudio de Heller tenía como objetivo determinar si un humano podía encontrar pistas audibles que el detector omitió, lo que les hacía juzgar algunos de los sonidos reales omitidos como reales, o algunos de los sonidos generados por IA omitidos como falsos.

El estudio de Heller consistió en 20, que escuchó los mismos conjuntos de sonidos que el detector identificó incorrectamente.Al igual que el detector, los participantes tuvieron la tarea de identificar cuáles de los sonidos que escuchaban eran reales y cuáles eran generados por IA.

Los sonidos ambientales reales utilizados en el estudio se obtuvieron de bases de datos disponibles públicamente.Los sonidos ambientales generados por IA se tomaron de los ganadores de un concurso en el que los solicitantes presentaron sonidos desarrollados con IA, siendo los sonidos ganadores los más precisos o reales.

Para los sonidos falsos que el detector consideró reales, los resultados del estudio en humanos no fueron concluyentes.Los humanos acertaron aproximadamente el 50% de las veces, lo que indica que no eran sensibles a la falsedad de los sonidos que engañaban al detector.Es posible que los participantes no hayan podido clasificar definitivamente los sonidos que escuchaban, y los resultados reflejan elecciones aleatorias en lugar de respuestas confiables.

Sin embargo, para los sonidos reales que el detector consideró falsos, los humanos acertaron alrededor del 71% de las veces y fueron más precisos que el detector.Esta estadística revela que las respuestas no fueron resultado del azar, sino más bien de la clasificación definitiva y correcta de los sonidos reales por parte del participante.

Heller concluye que estos resultados implican que podría haber algún tipo de señal en estos sonidos ambientales reales que los humanos son capaces de detectar, pero que el detector no logra reconocer.Si los investigadores pueden identificar esta señal hipotética, los detectores de sonido de IA podrían mejorarse para aumentar su precisión.

El detector de sonido ambiental y los resultados de Heller pueden conducir al desarrollo de herramientas de detección de IA más complejas.Los detectores de sonido de IA anteriores se crearon solo para identificar el habla, pero teniendo en cuenta el entorno.sonidoEs fundamental realizar más investigaciones para mejorar las herramientas de detección de IA para mantenerse al día con las tecnologías deepfake impulsadas por IA que están avanzando rápidamente en sus capacidades.

"Estamos en un punto en el que el público va a subestimar esa capacidad y está mejorando rápidamente", dijo Heller.

"El peor de los casos sería terminar en una sociedad donde la IA esté tan avanzada que los humanos no sean capaces de distinguir qué es real y qué es artificial. Queremos estar preparados antes de que eso suceda".

Heller también mencionó la importancia de implementar políticas que puedan regular los componentes de los medios impulsados ​​por la IA.

"Todo lo generado mediante IA debería tener una bandera", sugirió.

Más información:Ouajdi, H. Detección de audio ambiental deepfake,eurasip.org/Proceedings/Eusipc⦠024/pdfs/0000196.pdf

Citación:Distinguir sonidos reales de deepfakes (2024, 16 de septiembre)recuperado el 16 de septiembre de 2024de https://techxplore.com/news/2024-09-distinguiendo-real-deepfakes.html

Este documento está sujeto a derechos de autor.Aparte de cualquier trato justo con fines de estudio o investigación privados, noparte puede ser reproducida sin el permiso por escrito.El contenido se proporciona únicamente con fines informativos.