A California bill seeks to regulate the development of AI models though critics say the measure can threaten innovation in the nascent field
Un proyecto de ley de California busca regular el desarrollo de modelos de IA, aunque los críticos dicen que la medida puede amenazar la innovación en este campo incipiente.

La legislatura de California está considerando un proyecto de ley destinado a regular potentes modelos de inteligencia artificial, a pesar de las protestas de que podría acabar con la tecnología que busca controlar.

"Con el Congreso paralizado por la regulación de la IA... California debe actuar para adelantarse a los riesgos previsibles que presenta el rápido avance de la IA y al mismo tiempo fomentar la innovación", dijo el senador estatal demócrata Scott Wiener de San Francisco, patrocinador del proyecto de ley.

Pero los críticos, incluidos miembros demócratas del Congreso de Estados Unidos, argumentan que las amenazas de medidas punitivas contra los desarrolladores en un campo incipiente pueden estrangular la innovación.

"La opinión de muchos de nosotros en el Congreso es que la SB 1047 tiene buenas intenciones pero está mal informada", dijo en un comunicado la influyente congresista demócrata Nancy Pelosi de California, señalando que los principales miembros del partido han compartido sus preocupaciones con Wiener.

"Si bien queremos que California lidere la IA de una manera que proteja a los consumidores, los datos,y más, la SB 1047 es más dañina que útil en esa búsqueda", dijo Pelosi.

Pelosi señaló que la profesora de informática de la Universidad de Stanford, Fei-Fei Li, a quien se refirió como la "madrina de la IA" por su estatus en el campo, se encuentra entre quienes se oponen al proyecto de ley.

¿Daño o ayuda?

El proyecto de ley, llamado Ley de Innovación Segura para Modelos Fronterizos de Inteligencia Artificial, no resolverá lo que se supone que debe solucionar y "dañará profundamente a la academia de IA, a la pequeña tecnología y a la comunidad de código abierto", escribió Li a principios de este mes en X.Little tech se refiere a startups y pequeñas empresas, así como a investigadores y emprendedores.

Weiner dijo que la legislación tiene como objetivo garantizar el desarrollo seguro de modelos de IA a gran escala mediante el establecimientopara desarrolladores de sistemas cuyo entrenamiento cueste más de 100 millones de dólares.

El proyecto de ley exige que los desarrolladores de grandes modelos de IA "de frontera" tomen precauciones como pruebas previas a la implementación, simular ataques de piratas informáticos, instalar salvaguardias de seguridad cibernética y brindar protección a los denunciantes.

Los cambios recientes al proyecto de ley incluyen la sustitución de sanciones penales por infracciones por sanciones civiles, como multas.

OpenAI and its chief Sam Altman have also come out against the bill, saying national rules would make more sense
OpenAI y su director, Sam Altman, también se han manifestado en contra del proyecto de ley, diciendo que las reglas nacionales tendrían más sentido.

Wiener sostiene que la seguridad y la innovación de la IA no son mutuamente excluyentes, y que los ajustes al proyecto de ley han abordado algunas preocupaciones de los críticos.

OpenAI, el creador de ChatGPT, también se ha manifestado en contra del proyecto de ley, diciendo que preferiría reglas nacionales, por temor a un mosaico caótico de regulaciones de IA en todos los estados de EE. UU.

Al menos 40 estados han presentado proyectos de ley este año para regular la IA, y media docena han adoptado resoluciones o promulgado leyes dirigidas a la tecnología, según la Conferencia Nacional de Legislaturas Estatales.

OpenAI dijo que el proyecto de ley de California también podría expulsar a los innovadores del estado, hogar de Silicon Valley.

Pero Anthropic, otro actor de IA generativa que podría verse potencialmente afectado por la medida, ha dicho que después de algunas modificaciones bienvenidas, el proyecto de ley tiene más beneficios que defectos.

El proyecto de ley también cuenta con partidarios de alto perfil de la comunidad de IA.

"Los potentes sistemas de IA son increíblemente prometedores, pero los riesgos también son muy reales y deben tomarse muy en serio", dijo el informático Geoffrey Hinton, el "padrino de la IA", en un artículo de opinión de Fortune citado por Wiener.

"La SB 1047 adopta un enfoque muy sensato para equilibrar esas preocupaciones".

La regulación de la IA con "dientes reales" es fundamental, y California es un lugar natural para comenzar, ya que ha sido una plataforma de lanzamiento para la tecnología, según Hinton.

Mientras tanto, profesores y estudiantes del Instituto de Tecnología de California instan a la gente a firmar una carta en contra del proyecto de ley.

"Creemos que esta legislación propuesta representa una amenaza significativa a nuestra capacidad de avanzar en la investigación al imponer regulaciones onerosas y poco realistas al desarrollo de la IA", dijo en X la profesora de CalTech Anima Anandkumar.

© 2024 AFP

Citación:El proyecto de ley de IA de California divide a Silicon Valley (24 de agosto de 2024)recuperado el 24 de agosto de 2024de https://techxplore.com/news/2024-08-california-ai-bill-silicon-valley.html

Este documento está sujeto a derechos de autor.Aparte de cualquier trato justo con fines de estudio o investigación privados, noparte puede ser reproducida sin el permiso por escrito.El contenido se proporciona únicamente con fines informativos.