Artists such as Karla Ortiz in San Francisco, California, are seeking technical and legal ways to protect their styles as artificial intelligence 'learns' to copy works found online
Artistas como Karla Ortiz en San Francisco, California, están buscando formas técnicas y legales de proteger sus estilos a medida que la inteligencia artificial "aprende" a copiar obras encontradas en línea.

Artistas asediados por la inteligencia artificial (IA) que estudia su trabajo y luego replica sus estilos, se han asociado con investigadores universitarios para obstaculizar esa actividad de imitación.

La ilustradora estadounidense Paloma McClain se puso a la defensiva después de enterarse de que varios modelos de IA habían sido "entrenados" utilizando su arte, sin que se le enviara crédito ni compensación.

"Me molestó", dijo McClain a la AFP.

"Creo que los avances tecnológicos verdaderamente significativos se realizan de forma ética y elevan a todas las personas en lugar de funcionar a expensas de los demás".

El artista recurrió al software libre llamado Glaze creado por investigadores de la Universidad de Chicago.

Glaze esencialmente supera a los modelos de IA en lo que respecta a cómo se entrenan, ajustando los píxeles de maneras imperceptibles para los espectadores humanos pero que hacen que una obra de arte digitalizada parezca dramáticamente diferente a la IA.

"Básicamente estamos proporcionando herramientas técnicas para ayudar a proteger a los creadores humanos contra modelos de IA invasivos y abusivos", dijo el profesor de informática Ben Zhao, del equipo de Glaze.

Creada en solo cuatro meses, Glaze surgió de la tecnología utilizada para alterar los sistemas de reconocimiento facial.

"Estábamos trabajando a una velocidad súper rápida porque sabíamos que el problema era grave", dijo Zhao sobre apresurarse a defender a los artistas de los imitadores de software.

"Mucha gente estaba sufriendo".

Los gigantes de la IA generativa tienen acuerdos para utilizar datos para entrenamiento en algunos casos, pero la mayoría si, audio y texto utilizados para dar forma a la forma en que piensa el software superinteligente han sido eliminados de Internet sin consentimiento explícito.

Desde su lanzamiento en marzo de 2023, Glaze se ha descargado más de 1,6 millones de veces, según Zhao.

El equipo de Zhao está trabajando en una mejora de Glaze llamada Nightshade que aumenta las defensas al confundir a la IA, por ejemplo, haciendo que interprete a un perro como un gato.

"Creo que Nightshade tendrá un efecto notable si suficientes artistas lo usan y ponen suficientes imágenes envenenadas en la naturaleza", dijo McClain, refiriéndose a que está fácilmente disponible en línea.

"Según la investigación de Nightshade, no se necesitarían tantas imágenes envenenadas como podría pensarse."

Varias empresas se han acercado al equipo de Zhao que quieren utilizar Nightshade, según el académico de Chicago.

"El objetivo es que la gente pueda proteger su contenido, ya sean artistas individuales o empresas con mucha propiedad intelectual", dijo Zhao.

Examen oral

Startup Spawning ha desarrollado el software Kudurru que detecta intentos de recopilar una gran cantidad de imágenes de un lugar en línea.

Luego, un artista puede bloquear el acceso o enviar imágenes que no coincidan con lo que se solicita, contaminando el conjunto de datos que se utilizan para enseñarle a la IA qué es qué, según el cofundador de Spawning, Jordan Meyer.

Más de mil sitios web ya se han integrado en la red Kudurru.

Spawning también lanzó haveibeentraned.com, un sitio web que presenta una herramienta en línea para descubrir si las obras digitalizadas se han incorporado a un modelo de inteligencia artificial y permite a los artistas optar por no utilizar dicho uso en el futuro.

A medida que aumentan las defensas contra las imágenes, investigadores de la Universidad de Washington en Missouri han desarrollado un software AntiFake para impedir que la IA copie voces.

AntiFake enriquece las grabaciones digitales de personas hablando, agregando ruidos inaudibles para las personas pero que hacen "imposible sintetizar una voz humana", dijo Zhiyuan Yu, Ph.D.estudiante detrás del proyecto.

El programa pretende ir más allá de simplemente detener el entrenamiento no autorizado de IA para prevenir la creación de "deepfakes": bandas sonoras o vídeos falsos de celebridades, políticos, familiares u otras personas que los muestren haciendo o diciendo algo que no hicieron.

Según Zhiyuan Yu, un podcast popular se acercó recientemente al equipo AntiFake para pedirle ayuda para evitar que sus producciones fueran secuestradas.

El software, disponible gratuitamente, se ha utilizado hasta ahora para grabar personas hablando, pero también podría aplicarse a canciones, afirmó el investigador.

"La mejor solución sería un mundo en el que todos los datos utilizados para la IA estén sujetos a consentimiento y pago", sostuvo Meyer.

"Esperamos impulsar a los desarrolladores en esta dirección".

© 2023 AFP

Citación:Los artistas utilizan armas tecnológicas contra los imitadores de la IA (2023, 24 de diciembre)recuperado el 24 de diciembre de 2023de https://techxplore.com/news/2023-12-artists-tech-weapons-ai-copycats.html

Este documento está sujeto a derechos de autor.Aparte de cualquier trato justo con fines de estudio o investigación privados, noparte puede ser reproducida sin el permiso por escrito.El contenido se proporciona únicamente con fines informativos.