ai system
Crédito: Pixabay/CC0 Dominio público

En 1954, el corresponsal científico del Guardianinformó sobre "cerebros electrónicos", que tenía una forma de memoria que les permitía recuperar información, como la asignación de asientos de avión, en cuestión de segundos.

Hoy en día, la idea de que las computadoras almacenen información es tan común que ni siquiera pensamos en lo que realmente significan palabras como "memoria".Sin embargo, en la década de 1950, este lenguaje era nuevo para la mayoría de la gente y la idea de un "cerebro electrónico" estaba llena de posibilidades.

En 2024, su microondas tendrá más poder de computación que cualquier cosa que se llamara cerebro en la década de 1950, pero el mundo de la inteligencia artificial está planteando nuevos desafíos para el lenguaje y los abogados.El mes pasado, el periódico New York Timespresentó una demandacontra OpenAI y Microsoft, los propietarios de la popular herramienta de generación de texto basada en IAChatGPT, sobre su presunto uso de artículos del Times en los datos que utilizan para entrenar (mejorar) y probar sus sistemas.

Afirman que OpenAI ha infringido los derechos de autor al utilizar su periodismo como parte del proceso de creación de ChatGPT.Al hacerlo, afirma la demanda, han creado un producto competidor.que amenaza su negocio.La respuesta de OpenAIHasta ahora ha sido muy cauteloso, pero un principio clave esbozado en un comunicado emitido por la empresa es que su uso de datos en línea se rige por el principio conocido como "uso justo".Esto se debe a que, sostiene OpenAI, transforman el trabajo en algo nuevo en el proceso: el texto generado por ChatGPT.

En el meollo de esta cuestión está la cuestión del uso de datos.¿Qué datos tienen derecho a utilizar empresas como OpenAI y qué significan realmente conceptos como "transformar" en estos contextos?Preguntas como esta, en torno a los datos con los que entrenamos sistemas de IA o modelos como ChatGPT, siguen siendo un feroz campo de batalla académico.La ley a menudo va a la zaga del comportamiento de la industria.

Si ha utilizado IA para responder correos electrónicos o resumir su trabajo, es posible que vea ChatGPT como un fin que justifica los medios.Sin embargo, tal vez debería preocuparnos si la única manera de lograrlo es eximir a entidades corporativas específicas de las leyes que se aplican a todos los demás.

Esto no sólo podría cambiar la naturaleza del debate en torno a demandas por derechos de autor como ésta, sino que también tiene el potencial de cambiar la forma en que las sociedades estructuran su sistema legal.

Preguntas fundamentales

Casos como este pueden plantear preguntas espinosas sobre el futuro de los sistemas legales, pero también pueden cuestionar el futuro de los propios modelos de IA.El New York Times cree que ChatGPTamenaza la existencia a largo plazodel periódico.Sobre este punto, OpenAI dice en su comunicado que escolaborando con organizaciones de noticiaspara brindar nuevas oportunidades en el periodismo.Dice que los objetivos de la empresa son "apoyar un ecosistema de noticias saludable" y "ser un buen socio".

Incluso si creemos que los sistemas de IA son una parte necesaria del futuro de nuestra sociedad, parece una mala idea destruir las fuentes de datos en las que fueron entrenados originalmente.Esta es una preocupación compartida por esfuerzos creativos como el New York Times, autores comoGeorge R. R. Martín, y también elenciclopedia en línea Wikipedia.

Los defensores de la recopilación de datos a gran escala, como la que se utiliza para impulsar los modelos de lenguaje grande (LLM), la tecnología subyacente a los chatbots de IA como ChatGPT, argumentan que los sistemas de IA "transforman" los datos con los que entrenan al "aprender" de sus conjuntos de datos.y luego crear algo nuevo.

Efectivamente, lo que quieren decir es que los investigadoresproporcionar datos escritos por personasy pedir a estos sistemas que adivinen las siguientes palabras de la oración, como lo harían cuando se trata de una pregunta real de un usuario.Al ocultar y luego revelar estas respuestas, los investigadores pueden proporcionar una respuesta binaria de "sí" o "no" que ayude a impulsar los sistemas de inteligencia artificial hacia predicciones precisas.Es por esta razón que los LLM necesitan una gran cantidad de textos escritos.

Si copiáramos los artículos del sitio web del New York Times y cobráramos a la gente por el acceso, la mayoría de la gente estaría de acuerdo en que esto sería un "robo sistemático a escala masiva" (como lo expresa la demanda del periódico).Pero mejorar la precisión de una IA mediante el uso de datos para guiarla, como se muestra arriba, es más complicado que esto.

Empresas como OpenAI no almacenan susy así argumentar que los artículos del New York Times introducidos en el conjunto de datos en realidad no se están reutilizando.Sin embargo, un contraargumento a esta defensa de la IA es quehay evidenciaque sistemas como ChatGPT pueden "filtrarse" palabra por palabraextractos de sus datos de entrenamiento.OpenAI dice que esto esun "error raro".

Sin embargo, sugiere que estos sistemas almacenan y memorizan algunos de los datos en los que están entrenados (sin querer) y pueden regurgitarlos palabra por palabra cuando se les solicita de manera específica.Esto evitaría cualquier barrera de pago que una publicación con fines de lucro pueda implementar para proteger su propiedad intelectual.

uso del idioma

Pero lo que probablemente tendrá un impacto a largo plazo en la forma en que abordamos la legislación en casos como estos es nuestro uso del lenguaje.La mayoría de los investigadores de IA le dirán que la palabra "aprendizaje" es muy importante e inexacta para describir lo que realmente está haciendo la IA.

Cabe preguntarse si la ley en su forma actual es suficiente para proteger y apoyar a las personas mientras la sociedad experimenta un cambio masivo hacia la era de la IA.Si algo se basa en una obra existente protegida por derechos de autor de una manera diferente al original se denomina "uso transformador" y es una defensa utilizada por OpenAI.

Sin embargo, estas leyes fueron diseñadas para alentar a las personas a remezclar, recombinar y experimentar con trabajos ya lanzados al mundo exterior.En realidad, las mismas leyes no fueron diseñadas para proteger productos tecnológicos multimillonarios que funcionan a una velocidad y escala de muchos órdenes de magnitud mayor a la que cualquier escritor humano podría aspirar.

El problema con muchas de las defensas de las grandes empresasrecopilación y uso es que se basan en usos extraños del idioma inglés.Decimos que la IA "aprende", que "comprende", que puede "pensar".Sin embargo, se trata de analogías, no de lenguaje técnico preciso.

Al igual que en 1954, cuando la gente miraba el equivalente moderno de una calculadora rota y la llamaba "cerebro", estamos usando un lenguaje antiguo para lidiar con conceptos completamente nuevos.No importa cómo lo llamemos, sistemas como ChatGPT no funcionan como nuestro cerebro y los sistemas de inteligencia artificial no desempeñan el mismo papel en la sociedad que las personas.

Así como tuvimos que desarrollar nuevas palabras y una nueva comprensión común de la tecnología para dar sentido a las computadoras en la década de 1950, es posible que necesitemos desarrollar un nuevo lenguaje y nuevas leyes para ayudar a proteger nuestra sociedad en la década de 2020.

Este artículo se republica desdeLa conversaciónbajo una licencia Creative Commons.Lea elartículo original.The Conversation

Citación:La demanda del New York Times contra OpenAI podría tener importantes implicaciones para el desarrollo de la inteligencia artificial (2024, 11 de enero)recuperado el 11 de enero de 2024de https://techxplore.com/news/2024-01-york-lawsuit-openai-major-implications.html

Este documento está sujeto a derechos de autor.Aparte de cualquier trato justo con fines de estudio o investigación privados, noparte puede ser reproducida sin el permiso por escrito.El contenido se proporciona únicamente con fines informativos.