por Leo S.F.Lin, Duane Aslett, Geberew Tulu Mekonnen y Mladen Zecevic,

elderly cell phone
Crédito: ANTONI SHKRABA producción de Pexels

El rápido desarrollo de la inteligencia artificial (IA) ha traído beneficios y riesgos.

Una tendencia preocupante es el uso indebido de la clonación de voces.En segundos, los estafadores pueden clonar una voz y engañar a las personas haciéndoles creer que un amigo o familiar necesita dinero con urgencia.

Medios de comunicación, incluidoscnn, advierten que este tipo de estafas tienen el potencial de afectar a millones de personas.

A medida que la tecnología facilita que los delincuentes invadan nuestros espacios personales, ser cauteloso con su uso es más importante que nunca.

¿Qué es la clonación de voz?

El auge de la IA ha creado posibilidades para la generación de imágenes, texto, voz y aprendizaje automático.

Si bien la IA ofrece muchos beneficios, también proporciona a los estafadores nuevos métodos para explotar a las personas a cambio de dinero.

Es posible que hayas oído hablar de "deepfakes", donde la IA se utiliza para crear imágenes, vídeos e incluso audio falsos, que a menudo involucrancelebridadeso políticos.

La clonación de voz, un tipo de tecnología deepfake, crea una réplica digital de la voz de una persona capturando su, acento y respiración a partir de breves muestras de audio.

Una vez que se captura el patrón de voz, un generador de voz con IA puede convertir la entrada de texto en un habla muy realista que se asemeja a la voz de la persona objetivo.

Con el avance de la tecnología, la clonación de voz se puede lograr con solouna muestra de audio de tres segundos.

Mientras que una simple frase como "hola, ¿hay alguien ahí?"puede conducir a una estafa de clonación de voz, una conversación más larga ayuda a los estafadores a capturar más detalles vocales.Por lo tanto, es mejor que las llamadas sean breves hasta que esté seguro de la identidad de la persona que llama.

La clonación de voz tiene valiosas aplicaciones en entretenimiento yâpermitir el trabajo de voz remoto para artistas (inclusodespués de la muerte) y ayudar a personas con discapacidades del habla.

Sin embargo, plantea graves problemas de privacidad y, subrayando la necesidad de salvaguardias.

Cómo lo están explotando los delincuentes

Los ciberdelincuentes aprovechan la tecnología de clonación de voz para hacerse pasar por celebridades, autoridades o gente corriente con fines de fraude.

Crean urgencia, se ganan la confianza de la víctima y solicitan dinero mediante tarjetas de regalo, transferencias bancarias o criptomonedas.

el procesocomienzarecopilando muestras de audio de fuentes como YouTube y TikTok.

A continuación, la tecnología analiza el audio para generar nuevas grabaciones.

Una vez clonada la voz, se puede utilizar en comunicaciones engañosas, a menudo acompañadas de un identificador de llamadas falso para parecer digno de confianza.

Muchos casos de estafas de clonación de voz han aparecido en los titulares.

Por ejemplo, los delincuentes clonaron la voz de undirector de la empresaen los Emiratos Árabes Unidos para orquestar un atraco de 51 millones de dólares australianos.A

empresario en Bombayfue víctima de una estafa de clonación de voz que involucraba una llamada falsa de la Embajada de la India en Dubai.Recientemente, en Australia, los estafadores emplearon un clon de voz de

Primer ministro de Queensland, Steven Milespara intentar engañar a la gente para que invierta en Bitcoin.Los adolescentes y los niños también son el objetivo.

en unestafa de secuestroen Estados Unidos, se clonó la voz de una adolescente y se manipuló a sus padres para que cumplieran con sus demandas.

Solo se necesitan unos segundos de audio para que la IA clone la voz de alguien.

¿Qué tan extendido está?

Recienteinvestigaciónmuestra que el 28% de los adultos en el Reino Unido se enfrentaron a estafas de clonación de voz el año pasado, y el 46% desconocía la existencia de este tipo deestafaPone de relieve una importante laguna de conocimiento que deja a millones de personas en riesgo de fraude.

En 2022, casi 240.000 australianos informaron haber sido víctimas de estafas de clonación de voz, lo que provocó una pérdida financiera de

568 millones de dólares australianos.Cómo las personas y las organizaciones pueden protegerse contra esto

Los riesgos que plantea la clonación de voz requieren una

respuesta multidisciplinaria.Las personas y las organizaciones pueden implementar varias medidas para protegerse contra el uso indebido de la tecnología de clonación de voz.

Primero,

Campañas de concientización pública y educación.puede ayudar a proteger a personas y organizaciones y mitigar estos tipos de fraude.La colaboración público-privada puede proporcionar información clara y opciones de consentimiento para la clonación de voz.

En segundo lugar, las personas y las organizaciones deberían intentar utilizar

seguridad biométrica con detección de vida, que es una nueva tecnología que puede reconocer y verificar una voz en vivo en lugar de una falsa.Y las organizaciones que utilizan el reconocimiento de voz deberían considerar adoptar la autenticación multifactor.

En tercer lugar, mejorar la capacidad de investigación contra la clonación de voces es otra medida crucial para.

Finalmente,regulaciones precisas y actualizadasLos países son necesarios para gestionar los riesgos asociados.

Las autoridades australianas reconocen los beneficios potenciales de la IA.

Sin embargo, las preocupaciones sobre el "lado oscuro" de esta tecnología han provocado llamados a investigar el uso criminal de "Inteligencia artificial para la selección de víctimas.".

También hay llamados a posibles estrategias de intervención que las fuerzas del orden podrían utilizar para combatir este problema.

Esos esfuerzos deberían conectarse con la estrategia generalPlan Nacional de Lucha contra el Cibercrimen, que se centra en estrategias proactivas, reactivas y restaurativas.

Ese plan nacional estipula un deber de diligencia para los proveedores de servicios, reflejado en la nueva ley del gobierno australiano.legislaciónpara salvaguardar al público y a las pequeñas empresas.

La legislación apunta a nuevas obligaciones para prevenir, detectar, informar y desbaratar las estafas.

Esto se aplicará a organizaciones reguladas como empresas de telecomunicaciones, bancos y proveedores de plataformas digitales.El objetivo es proteger a los clientes previniendo, detectando, informando e interrumpiendoestafas cibernéticas que implican engaño.

Reducir el riesgo

Dado que el cibercrimen le cuesta a la economía australiana un estimado42 mil millones de dólares australianos, la conciencia pública y fuertes salvaguardias son esenciales.

Países como Australia están reconociendo el riesgo creciente.La eficacia de las medidas contra la clonación de voz y otros fraudes depende de su adaptabilidad, coste, viabilidad y cumplimiento normativo.

Todas las partes interesadas (gobierno, ciudadanos y autoridades policiales) deben permanecer alerta y aumentar la conciencia pública para reducir el riesgo de victimización.

Este artículo se republica desdeLa conversaciónbajo una licencia Creative Commons.Lea elartículo original.The Conversation

Citación:Los peligros de la clonación de voces y cómo combatirla (10 de octubre de 2024)recuperado el 10 de octubre de 2024de https://techxplore.com/news/2024-10-dangers-voice-cloning-combat.html

Este documento está sujeto a derechos de autor.Aparte de cualquier trato justo con fines de estudio o investigación privados, noparte puede ser reproducida sin el permiso por escrito.El contenido se proporciona únicamente con fines informativos.