How AI can help stop the spread of misinformation
Si alguien es más feliz, está diciendo la verdad y hay otras señales visuales, verbales y vocales que nosotros, como seres humanos, compartimos cuando somos honestos.Los algoritmos funcionan mejor para descubrir estas correlaciones.Crédito: UC San Diego.

Los algoritmos de aprendizaje automático superan significativamente el juicio humano a la hora de detectar mentiras durante interacciones estratégicas de alto riesgo, según una nueva investigación de la Rady School of Management de la Universidad de California en San Diego.

El estudio puede tener implicaciones importantes para la difusión de información errónea, ya quepodría utilizarse para reforzar los esfuerzos por reducir el contenido ficticio en las principales plataformas como YouTube, Tik-Tok e Instagram.

El estudio, que se publicará enCiencias de la gestióny disponible comopapel de trabajo, se centró en la capacidad de los participantes para detectar mentiras en el popular programa de televisión británico "Golden Balls", que se emitió de 2007 a 2010. Encuentra que, si bien los humanos luchan por predecir el comportamiento de engaño de los concursantes, los algoritmos funcionan mucho mejor.

"Encontramos que hay ciertos 'indicios' cuando una persona está engañando", dijo Marta Serra-García, autora principal del estudio y profesora asociada de economía del comportamiento en la Escuela de Administración Rady de UC San Diego.

"Por ejemplo, si alguien es más feliz, está diciendo la verdad y hay otras señales visuales, verbales y vocales que todos nosotros, como seres humanos, compartimos cuando somos honestos y decimos la verdad. Los algoritmos funcionan mejor para descubrir estas correlaciones".

Los algoritmos utilizados en la investigación lograron una tasa de precisión impresionante, prediciendo correctamente el comportamiento de los concursantes el 74% de las veces, en comparación con la tasa de precisión del 51% al 53% lograda por los más de 600 humanos que participaron en el estudio.

Además de comparar el aprendizaje automático y las capacidades humanas para detectar el engaño, el estudio también probó cómo se podrían aprovechar los algoritmos para ayudar a las personas a distinguir mejor a quienes mienten de quienes dicen la verdad.

En un experimento, dos grupos diferentes de participantes del estudio vieron el mismo conjunto de episodios de "Golden Balls".Un grupo marcó los videos mediante aprendizaje automático antes de verlos.Las banderas indicaron que elpredijo que lo más probable es que el concursante estuviera mintiendo.

Otro grupo vio el mismo video y después de verlo, les dijeron que el algoritmo marcó el video como engaño.Los participantes tenían muchas más probabilidades de confiar en los conocimientos del aprendizaje automático y predecir mejor las mentiras si recibían el mensaje de la bandera antes de ver el vídeo.

"El momento oportuno es crucial cuando se trata de la adopción de asesoramiento algorítmico", afirmó Serra-García."Nuestros hallazgos muestran que es mucho más probable que los participantes confíen en conocimientos algorítmicos cuando se presentan al principio del proceso..Esto tiene particular importancia para plataformas en línea como YouTube y TikTok, que pueden usar algoritmos para marcar contenido potencialmente engañoso".

El coautor Uri Gneezy, profesor de economía del comportamiento en la Rady School, añadió: "Nuestro estudio sugiere que estas plataformas en línea podrían mejorar la eficacia de sus sistemas de señalización al presentar advertencias algorítmicas antes de que los usuarios interactúen con el contenido, en lugar de después, lo que podría llevar aa que la información errónea se propague menos rápidamente".

Algunos de estos sitios web de redes sociales ya utilizan algoritmos para detectar contenido sospechoso, pero en muchos casos, un usuario debe denunciar un vídeo y luego el personal lo investiga y puede marcar el contenido o eliminarlo.Estos procesos pueden prolongarse a medida que los empleados de empresas de tecnología como TikTok se sobrecargan con investigaciones.

Los autores concluyen: "Nuestro estudio muestra cómo la tecnología puede mejorar la toma de decisiones humanas y es un ejemplo de cómo los humanos pueden interactuar con la IA cuando la IA puede ser útil. Esperamos que los hallazgos puedan ayudar a las organizaciones y plataformas a diseñar e implementar mejor herramientas de aprendizaje automático, especialmenteen situaciones donde la toma de decisiones precisa es fundamental".

Citación:Cómo la IA puede ayudar a detener la difusión de información errónea (2024, 17 de septiembre)recuperado el 17 de septiembre de 2024de https://techxplore.com/news/2024-09-ai-misinformation.html

Este documento está sujeto a derechos de autor.Aparte de cualquier trato justo con fines de estudio o investigación privados, noparte puede ser reproducida sin el permiso por escrito.El contenido se proporciona únicamente con fines informativos.