desde¿quién-es-responsable?departamento

La maravilla tecnológica de los grandes modelos de lenguaje (LLM) como ChatGPT, desarrollado por ingenieros y expertos en inteligencia artificial, ha planteado un desafío único en el ámbito de la ley de derechos de autor.Estos sistemas avanzados de IA, que se someten a una capacitación exhaustiva sobre diversos conjuntos de datos, incluido material protegido por derechos de autor, y proporcionan resultados que dependen en gran medida de las “indicaciones” del usuario, han planteado interrogantes sobre los límites del uso legítimo y las responsabilidades tanto de los desarrolladores de IA como de los desarrolladores.usuarios.

Construyendo sobrela doctrina sony, que protege las tecnologías de doble uso con usos sustanciales no infractores, propongo la Doctrina TAO (âTraining And Outputâ) para LLM de IA como chatGPT, Claude y Bard.Esta Doctrina de IA reconoce que si un motor LLM de IA de buena fe se entrena utilizando obras protegidas por derechos de autor, donde (1) el trabajo original no se replica sino que se utiliza para desarrollar una comprensión, y (2) los resultados generados se basan en indicaciones del usuario, laLa responsabilidad de cualquier posible infracción de derechos de autor debe recaer en el usuario, no en el sistema de inteligencia artificial.Este enfoque reconoce la “naturaleza de doble uso” de las tecnologías de IA y enfatiza el papel crucial de la intención del usuario y las entradas, como indicaciones y URL, para determinar la naturaleza de la salida y cualquier uso posterior.

Comprender los LLM y su mecanismo de formación

Los LLM operan analizando y sintetizando grandes cantidades de datos de texto.Su capacidad para generar respuestas, escribir de forma creativa e incluso desarrollar código surge de esta formación.Sin embargo, a diferencia de los métodos tradicionales de copia, los LLM como ChatGPT participan en un proceso complejo de aprendizaje y generación de contenido nuevo basado en patrones y estructuras aprendidos de sus datos de capacitación.Este proceso es similar a cuando una persona aprende un idioma a través de varias fuentes pero luego usa ese idioma de forma independiente para crear nuevas oraciones.Los LLM de IA son importantes para el avance de la sociedad, ya que son "motores de ideas" que permiten procesar e intercambiar ideas de manera eficiente.

La ley de derechos de autor no protege hechos, ideas., procedimientos, procesos, sistemas, métodos de operación, conceptos, principios o descubrimientos, incluso si están expresados ​​en obras protegidas por derechos de autor.Este principio implica que los elementos sintácticos, estructurales y lingüísticos extraídos durante la formación de los LLM quedan fuera del alcance de la protección de los derechos de autor.El uso de textos para formar LLM implica principalmente analizar estos elementos sin derechos de autor para comprender y modelar estadísticamente patrones lingüísticos.

La formación de LLM se alinea con los principios de uso legítimo, ya que implica un proceso transformador históricamente importante que se extiende más allá de la mera replicación de textos protegidos por derechos de autor.Aprovecha los elementos del lenguaje que no están protegidos por derechos de autor para crear algo nuevo y valioso, sin disminuir el valor de mercado de las obras originales.La tecnología LLM ha llevado a la sociedad a la era de los procesadores de ideas.En general, el uso de textos para capacitar a los LLM puede considerarse uso legítimo según la ley de derechos de autor actual.

La doctrina Sony propuesta para los LLM en IA o la doctrina "Capacitación y resultado" (âTAOâ)

El entrenamiento de modelos de lenguaje grande (LLM) de IA en obras protegidas por derechos de autor, y sus resultados posteriores a partir de indicaciones de los usuarios, presenta un caso convincente para ser reconocido como una forma de tecnología de doble uso.Este reconocimiento podría resumirse en lo que podría denominarse la Doctrina "Entrenamiento y resultados de la IA" (âTAOâ) que protege a los desarrolladores de la responsabilidad por infracción de derechos de autor.Haciendo paralelos con la Doctrina Sony, que protegía la fabricación de tecnologías de doble uso como el VCR bajo la premisa de que son capaces de usos sustanciales no infractores, la Doctrina AI TAO podría salvaguardar el desarrollo de la IA y disuadir las compuertas de litigios.

Los LLM, al igual que el VCR, tienen una naturaleza de doble uso.Son capaces de realizar actividades infractoras transitorias y modestas cuando los usuarios los solicitan o los utilizan de manera inapropiada, pero lo que es más importante, poseen un vasto potencial para usos beneficiosos y no infractores, como enriquecimiento educativo, mejora de ideas y avances en el procesamiento del lenguaje.La esencia de la Doctrina AI TAO se centraría en esta característica de doble uso, enfatizando las aplicaciones sustanciales y legítimas de la IA que superan con creces los posibles abusos.

Proteger a los desarrolladores de formación LLM y resultados automatizados bajo dicha doctrina se alinea con el fomento de la innovación y el avance tecnológico, al tiempo que se reconoce la necesidad de un uso responsable.La Doctrina AI TAO no eximiría completamente a los desarrolladores de IA de buena fe de implementar salvaguardias sólidas contra la infracción de derechos de autor, pero reconocería la naturaleza inherente de doble uso de las tecnologías de IA, promoviendo así un enfoque equilibrado de las consideraciones de derechos de autor en el desarrollo de la IA.

Responsabilidad del usuario y resultados de la IA

Los usuarios desempeñan un papel fundamental en cómo se utilizan los LLM.Ahora, considere el "mensaje" del usuario, las instrucciones de receta del usuario.A un LLM al que se le presenta un mensaje sobre un artículo protegido por derechos de autor puede generar resultados justos o malos.Un mensaje reflexivo de “resumen y critica” que extrae puntos clave y ofrece análisis cae directamente bajo el uso legítimo.Es como tomar notas y formarse opiniones después de leer un libro: un aspecto crucial del aprendizaje y la crítica.El LLM utilizado de esta manera es un excelente "procesador de ideas".

Sin embargo, un mensaje que exija al LLM "regurgitar todo el artículo palabra por palabra" puede cruzar la línea.¿El equipo de “usuarios” involucrado en la queja del NY Times contra OpenAI fue demasiado lejos y jugó con la tecnología o actuó con manos sucias cuando formularon indicaciones agresivas?¿Debería la ley tolerar este tipo de juegos transitorios y raros en favor del bien mayor que los LLM tienen para ofrecer?Es probable que a medida que el caso avance, aprendamos mucho sobre el proceso mediante el cual se generaron los llamativos resultados.Lo más probable es que los LLM de IA sigan preparándose para afrontar incidentes similares de derechos de autor en materia de juegos.

Sin embargo, todavía hay contextos de usuario en los que dicha producción palabra por palabra y su uso posterior pueden constituir un uso legítimo.Es posible que sea necesario tolerar cierto grado de derechos de autor sobre los “juegos” para que florezcan el uso legítimo y la libertad de expresión.Para poner un ejemplo irónico, un análisis legal asistido por un LLM de la demanda del NY Times contra OpenAI, por su naturaleza, debería incluir el uso justo de todas las partes de la demanda, incluidos los artículos "con derechos de autor" del NY Times incluidos en esadocumento judicial.El "bloqueo" generalizado de dichos textos de artículos en los resultados del LLM probablemente sea demasiado amplio, especialmente para los académicos del derecho.

La infracción de derechos de autor que involucra la producción de LLM también depende en gran medida de cómo el usuario usa el contenido fuera del sitio o fuera del mismo.Los usuarios como estudiantes, organizaciones de noticias y abogados que utilizan los mismos resultados pueden tener cada uno un análisis de infracción de derechos de autor diferente para sus casos de uso fuera del sitio.El uso legítimo de un usuario es la infracción de otro usuario.Si un usuario solicita a un LLM que genere contenido que se utiliza de una manera que infringe los derechos de autor, la responsabilidad debe recaer en el usuario, no en el LLM.

Aquí está el quid de la cuestión:el LLM por sí solo no puede predecir las intenciones del usuario.Simplemente procesa patrones basándose en indicaciones.La máquina de aprendizaje LLM y el procesador de ideas no deben ser sofocados debido a un posible mal uso por parte del usuario.En cambio, en las raras circunstancias en las que existe una infracción legítima de los derechos de autor, los usuarios deben ser responsables de sus indicaciones y el uso posterior y otorgar a los desarrolladores de tecnología de uso dual AI LLM el estatus de no infractor del fabricante de VCR segúnLa Doctrina Sony.

Este enfoque se beneficiaría del desarrollo de sistemas de inteligencia artificial orientados a la privacidad que puedan señalar usos potencialmente infractores y guiar a los usuarios hacia un uso responsable, fomentando así una cultura de conciencia y responsabilidad en el ámbito digital.Se debe tener cuidado de no invadir la privacidad del usuario analizando mensajes y resultados privados y almacenándolos, lo que puede revelar la información más sensible sobre una persona, desde preocupaciones sobre atención médica hasta secretos comerciales.

Irónicamente, los LLM de IA conservan las obras originales protegidas por derechos de autor, según la doctrina del uso justo, para codificar partes y reforzar las tecnologías de huellas dactilares.puede ayudar a crear un mejor filtrado de infracciones de derechos de autor, retroalimentación y sistemas de alerta.Cómo equilibrar el riesgo de derechos de autor con la innovación requiere un enfoque holístico por parte de todas las partes interesadas.Hay mucho en juego.Demasiada fricción y otros países con un conjunto de políticas de “primero la tecnología” tomarán la delantera en la IA global.

La capacitación de los LLM sobre material protegido por derechos de autor, bajo el paraguas del uso legítimo y resultados posteriores en respuesta a las indicaciones de los usuarios dentro de la IA propuesta.Doctrina TAO, presenta un enfoque equilibrado para fomentar la innovación respetando al mismo tiempo las leyes de derechos de autor.Esta perspectiva enfatiza la naturaleza transformadora de la capacitación en IA, la importancia de la intención del usuario en la generación de resultados y la necesidad de herramientas tecnológicas para ayudar en el uso responsable.Este enfoque no sólo respalda el avance de la tecnología de inteligencia artificial, sino que también defiende los principios de los derechos de propiedad intelectual, garantizando una coexistencia armoniosa entre la innovación tecnológica y las leyes de derechos de autor.

Ira P. Rothken es un asesor y asesor legal líder para empresas de las industrias de redes sociales, entretenimiento, Internet, servicios en la nube y videojuegos.

Archivado en:,,,,,,,
Empresas:nuevos tiempos,abierto