dark computer
Crédito: Unsplash/CC0 Dominio público

Es difícil hablar de inteligencia artificial sin hablar de porno deepfake, un subproducto dañino de la IA que se ha utilizado para atacar a todos, desde Taylor Swift hasta colegialas australianas.

Pero un recienteinformede la startup Security Heroes descubrió que de 95,820Vídeos porno deepfakeAnalizados a partir de diferentes fuentes, el 53% presentaba cantantes y actrices surcoreanas, lo que sugiere que este grupo es un objetivo desproporcionado.

Entonces, ¿qué hay detrás de la decisión de Corea del Sur?¿problema?¿Y qué se puede hacer al respecto?

Adolescentes y menores entre las víctimas

Los deepfakes son fotografías, vídeos o archivos de audio manipulados digitalmente que representan de forma convincente a alguien diciendo o haciendo cosas que nunca hizo.Entre los adolescentes surcoreanos, la creación de deepfakes se ha vuelto tan común que algunos incluso lo ven.como una broma.Y no sólo se dirigen a las celebridades.

En Telegram, se han creado chats grupales con el propósito específico de participar en abusos sexuales basados ​​en imágenes contra mujeres, incluidos estudiantes de secundaria y preparatoria, maestros y familiares.Mujeres que tienen sus fotos puestas.comoKakaoTalk, Instagram y Facebook también son objetivos frecuentes.

Los perpetradores utilizan robots de inteligencia artificial para generar imágenes falsas, que luego se venden y/o difunden indiscriminadamente, junto con las cuentas de redes sociales, números de teléfono y nombres de usuario de KakaoTalk de las víctimas.Un grupo de Telegram atrajo a unos 220.000 miembros, según unInforme del guardián.

Una falta de conciencia

A pesar de que la violencia de género causadaño significativoPara las víctimas en Corea del Sur, sigue habiendo una falta de conciencia sobre el tema.

Corea del Sur ha experimentado un rápido crecimiento tecnológico en las últimas décadas.Ocupa el primer lugar en elmundo en propiedad de teléfonos inteligentesy se cita por tener la mayor conectividad a Internet.Muchos empleos, incluidos los de restaurantes, manufactura y transporte público, están siendo reemplazados rápidamente por robots e inteligencia artificial.

Pero como señala Human Rights Watchseñala, el progreso del país en materia de igualdad de género y otras medidas de derechos humanos no ha seguido el ritmo del avance digital.Y las investigaciones han demostrado que el progreso tecnológico puede en realidad exacerbar la cuestión deviolencia de género.

Desde 2019, los delitos sexuales digitales contra niños y adolescentes en Corea del Sur han sido un gran problema, especialmente debido a laCaso "Enésima Habitación".Este caso involucró a cientos de víctimas jóvenes (muchas de las cuales eran menores) y alrededor de 260.000 participantes participaron en compartir contenido íntimo explotador y coercitivo.

El caso provocó una indignación generalizada y pedidos de mayor protección.Incluso condujo al establecimiento de condiciones más estrictas en la Ley de Casos Especiales de Castigo de Delitos Sexuales de 2020. Pero a pesar de esto, la Fiscalía Supremadijo solo el 28%del total de 17,495 delincuentes sexuales digitales capturados en 2021 fueron acusados, lo que destaca los desafíos actuales para abordar eficazmente los delitos sexuales digitales.

En 2020, el Ministerio de JusticiaSe propone un grupo de trabajo sobre delitos sexuales digitalesalrededor de 60 disposiciones legales, que aún no han sido aceptadas.El equipo se disolvió poco después de la toma de posesión del gobierno del presidente Yoon Suk Yeol en 2022.

Durante la carrera presidencial de 2022,Yoon dijo"No existe discriminación estructural de género" en Corea del Sur y se comprometió a abolir el Ministerio de Igualdad de Género y Familia, principal ministerio responsable de prevenir la violencia de género.Esta publicaciónha quedado vacantedesde febrero de este año.

¿Puede la tecnología ser también la solución?

Pero la IA no siempre es dañina, y Corea del Sur también es prueba de ello.En 2022, un centro digital de apoyo a los delitos sexuales gestionado por el gobierno metropolitano de Seúldesarrolló una herramientaque puede rastrear, monitorear y eliminar automáticamente imágenes y videos deepfake durante todo el día.

La tecnología que ganó el 2024Premio de la ONU a la Administración Pública“Ha ayudado a reducir el tiempo necesario para encontrar deepfakes de un promedio de dos horas a tres minutos.Pero si bien estos intentos pueden ayudar a reducir el daño adicional causado por los deepfakes, es poco probable que sean una solución exhaustiva, ya que los efectos en las víctimas pueden ser persistentes.

Para lograr un cambio significativo, el gobierno debe responsabilizar a los proveedores de servicios, como las plataformas de redes sociales y las aplicaciones de mensajería, de garantizar la seguridad de los usuarios.

Esfuerzos unificados

El 30 de agosto, elEl gobierno de Corea del Sur anuncióplanea impulsar una legislación que criminalice la posesión, compra y visualización de deepfakes en Corea del Sur.

Sin embargo, es posible que las investigaciones y los juicios sigan siendo insuficientes hasta que los deepfakes en Corea del Sur sean reconocidos como una forma dañina de violencia de género.Será necesario un enfoque multifacético para abordar el problema de los deepfakes, incluyendo una mayorleyes, reforma y educación.

Las autoridades surcoreanas también deben ayudar a mejorar la conciencia pública sobre la violencia de género y centrarse no sólo en apoyar a las víctimas, sino también en desarrollar políticas proactivas y programas educativos para prevenir la violencia en primer lugar.

Este artículo se republica desdeLa conversaciónbajo una licencia Creative Commons.Lea elartículo original.The Conversation

Citación:La IA está alimentando una crisis de pornografía ultrafalsa en Corea del Sur.¿Qué hay detrás de esto y cómo se puede solucionar?(2024, 25 de septiembre)recuperado el 26 de septiembre de 2024de https://techxplore.com/news/2024-09-ai-fueling-deepfake-porn-crisis.html

Este documento está sujeto a derechos de autor.Aparte de cualquier trato justo con fines de estudio o investigación privados, noparte puede ser reproducida sin el permiso por escrito.El contenido se proporciona únicamente con fines informativos.