ai
Crédito: CC0 Dominio público

Los formuladores de políticas de todo el mundo están lidiando con las vastas implicaciones de los avances en la tecnología de inteligencia artificial, incluida la forma en que las organizaciones internacionales utilizarán estas herramientas.

Aaron Martin, profesor asistente de la Escuela de Ciencia de Datos de la Universidad de Virginia, fue invitado recientemente a compartir sus ideas sobre este tema crítico durante unaen el Taller de Organizaciones Internacionales sobre Protección de Datos, que se celebró en el Banco Mundial en Washington y fue copatrocinado por el Supervisor Europeo de Protección de Datos.La reunión de este año marcó la primera vez que la conferencia tuvo lugar fuera de Europa.

Martin, quien se unió a la facultad de la Escuela de Ciencia de Datos en 2023 con un nombramiento conjunto en el Departamento de Estudios de Medios de la UVA, se especializa en gobernanza de datos y cómo los organismos internacionales establecen políticas transnacionales, particularmente en lo que se refiere a la tecnología.

En el panel de discusión, Martin compartió sus pensamientos sobre los desafíos que enfrentan las instituciones globales con la protección de datos y por qué es vital que trabajen para abordarlos.

Recientemente habló sobre su experiencia en la conferencia y sus puntos de vista sobre algunas de las muchas facetas de este tema global en rápida evolución.

Su panel se centró en el uso de la IA por parte de organizaciones internacionales.En términos generales, ¿cuál es su impresión sobre el uso generalizado de los sistemas de IA por parte de estas agencias?

Basta decir,âincluidos aquellos que estuvieron representados en el taller en D.C.âson muy diversos en términos de sus misiones y mandatos.

Estos van desde agencias de la ONU con misiones humanitarias o de desarrollo hasta organizaciones como la OTAN o Interpol, que facilitan la cooperación en materia de seguridad y aplicación de la ley a nivel internacional.Cada uno de ellos está explorando el uso de la IA de diferentes maneras, y mi impresión es que actualmente su enfoque es cauteloso, lo cual es alentador.

Una característica clave de las OI es que disfrutan de lo que se conoce como inmunidades y privilegios legales, que ayudan a garantizar su independencia y funcionamiento efectivo.Lo que esto significa en la práctica es que las leyes y regulaciones nacionales para la protección de datos (como el Reglamento General de Protección de Datos) y la IA (como la Ley de IA de la UE) no se aplicarán a las OI como lo hacen para los organismos gubernamentales o las empresas comerciales.

Esto se convierte en un verdadero problema de gobernanza: ¿cómo garantizamos que las OI procesen datos y utilicen nuevas tecnologías de manera responsable?La mayoría de estas organizaciones han establecido políticas de privacidad y, pero la IA introduce un nuevo conjunto de desafíos a los que deben enfrentarse.El objetivo de este taller es que las organizaciones trabajen juntas para desarrollar buenas directrices y prácticas para los datos y, cada vez más, la IA.

La discusión se centró en parte en los riesgos de estos sistemas.¿A qué deberían priorizar las organizaciones internacionales cuando se trata de mitigar los riesgos de la IA para los numerosos sectores afectados por su trabajo?

Recientemente, me han llamado la atención las noticias sobre los desafíos que enfrentan las empresas de IA en términos de acceso a nuevas fuentes de datos de calidad.Existe una creciente ansiedad de que los modelos de IA se vuelvan menos útiles y menos confiables si no se alimentan con más y más datos; estos modelos están "hambrientos", como lo describió uno de mis co-panelistas.Se teme que los modelos de IA comiencen a colapsar si se entrenan con demasiados datos sintéticos (es decir, falsos) o generados por IA, por lo que las empresas de IA están luchando por encontrar nuevos socios de datos.

En el taller, centré mi intervención en crear conciencia sobre los diversos riesgos de que las OI compartan demasiado datos con empresas de IA.Las OI tienen datos increíblemente ricos y diversos, por ejemplo, sobre indicadores de desarrollo, conflictos globales y asuntos humanitarios.

También tienen datos de partes del mundo que están muy subrepresentadas en línea, que es donde las empresas de IA suelen acudir para recopilar datos.Las OI deben pensar detenidamente cómo garantizar la confidencialidad de estos datos y tomar medidas para protegerlos del uso indebido y de los modelos comerciales tóxicos de IA.

Las organizaciones internacionales, como usted mencionó, no son un monolito y la audiencia de su panel estuvo compuesta por representantes de diversos grupos.¿Hasta qué punto los distintos tipos de organizaciones internacionales deberían pensar sobre estas cuestiones de manera diferente en función de su misión?

Habrá algunos desafíos comunes: cada IO tiene un departamento de recursos humanos, por ejemplo, por lo que las aplicaciones empresariales existen en las IO al igual que en cualquier otra organización.Y muchas (si no la mayoría) de las OI tienen importantes consideraciones presupuestarias que darán forma y posiblemente limitarán su uso de herramientas de IA, incluida la IA generativa.

Lo que me interesa particularmente, incluso en mi investigación, es cómo el uso de la IA por parte de las OI humanitarias puede afectar a los receptores de la ayuda, los llamados beneficiarios.¿Deberían las OI depender exclusivamente de la IA para tomar decisiones sobre quién recibe ayuda alimentaria, por ejemplo?¿Cuáles son los riesgos de hacerlo?Estas son preguntas difíciles que requieren la participación de una variedad de partes interesadas, incluidas aquellas directamente afectadas por estas decisiones.

Ha trabajado mucho analizando el impacto de la tecnología en comunidades históricamente marginadas, en particular los refugiados.Cuando se trata específicamente de organizaciones humanitarias y de IA, ¿cuáles son sus mayores preocupaciones?

En general, las organizaciones humanitarias están siendo bastante reflexivas sobre su enfoque de la IA."No hacer daño digital" es su mantra, lo que significa que son muy sensibles a los daños potenciales y reales que la IA podría infligir a los refugiados y otras personas afectadas por conflictos y crisis.

Me preocupa lo que se conoce como "aceite de serpiente de la IA" en el sector de la ayuda, y que a las organizaciones se les venda tecnología que simplemente no puede cumplir con las expectativas.Es importante que sigamos interactuando con estas organizaciones para ayudarlas a comprender las posibilidades y los riesgos.

¿Cuáles fueron algunas de las principales conclusiones de los otros oradores de su panel y de otras que escuchó en la conferencia?

Bueno, era la regla de Chatham House, así que debería tener cuidado aquí, pero quedé bastante impresionado por el pensamiento estratégico que están adoptando las OI para incorporar la IA en sus organizaciones.He asistido a otras conferencias en las que parece que la gente está buscando sin pensar casos de uso de IA, y ese suele ser el enfoque equivocado.

Otro panelista explicó cómo su organización utiliza la IA para documentarabusos en todo el mundo, que es una aplicación fascinante y habla del potencial de la IA para tener un impacto positivo en el mundo.

Citación:Preguntas y respuestas: el profesor analiza los riesgos que enfrentan las organizaciones internacionales con la IA y la protección de datos (30 de septiembre de 2024)recuperado el 30 de septiembre de 2024de https://techxplore.com/news/2024-09-qa-professor-discusses-international-ai.html

Este documento está sujeto a derechos de autor.Aparte de cualquier trato justo con fines de estudio o investigación privados, noparte puede ser reproducida sin el permiso por escrito.El contenido se proporciona únicamente con fines informativos.