Global powers are grappling with 'responsible' use of military AI. What would that look like?
Crédito: Tecnología de la Fuerza Aérea.Sargento.Teresa Eicher

La semana pasada, unos 2.000 funcionarios gubernamentales y expertos de todo el mundo se reunieron para laREINAR(Inteligencia Artificial Responsable en el Dominio Militar) en Seúl, Corea del Sur.Este fue el segundo evento de este tipo, y el primero se celebró en los Países Bajos en febrero de 2023.

Durante este año,61 países respaldaron un "Plan de acción"para regular el desarrollo y uso de la inteligencia artificial (IA) por parte del ejército.

Sin embargo, 30 países enviaron un representante gubernamental a la cumbre pero no respaldaron el plan,incluyendo China.

El plan es un avance importante, aunque modesto.Pero todavía existe una brecha en la comprensión de lo que constituye un uso responsable de la IA y cómo esto se traduce en acciones concretas en el ámbito militar.

¿Cómo se utiliza actualmente la IA en contextos militares?

El uso militar de la IA ha aumentado en los últimos años, especialmente en los conflictos Rusia-Ucrania e Israel-Palestina.

Israel ha utilizado sistemas habilitados por inteligencia artificial conocidos como "Gospel" y "Lavender" para ayudarlo a tomar decisiones militares clave, como qué lugares y personas atacar con bombas.los sistemasutilizar grandes cantidades de datos, incluidas las personasdirecciones, números de teléfono y membresía de grupos de chat.

El sistema "Lavender", en particular, fue noticia a principios de este año cuando los críticos cuestionaron su eficacia y legalidad.Hubo especial preocupación en torno a sus datos de entrenamiento ycómo clasificó los objetivos.

Tanto Rusia como Ucrania tambiénutilizar IA para apoyar la toma de decisiones militares.Las imágenes satelitales, el contenido de las redes sociales y la vigilancia con drones son sólo algunas de las muchas fuentes de información que generan grandes volúmenes de datos.

La IA puede analizar estos datos mucho más rápido que los humanos.Los resultados se incorporan a las "cadenas de muerte" existentes...El proceso de localización, seguimiento, focalización y participación de objetivos..

significapuede tomar decisiones más rápidas durante un conflicto armado activo, proporcionando ventajas tácticas.Sin embargo, el uso indebido de los sistemas de IA también puede provocar daños potenciales.

La sociedad civil y organizaciones no gubernamentales como el Comité Internacional de la Cruz Roja han advertido sobre los riesgos.Por ejemplo, el sesgo algorítmico puedeexacerbar el riesgo para los civilesdurante la guerra activa.

¿Qué es la IA responsable en el ámbito militar?

No hay consenso sobre qué constituye una IA "responsable".

Algunos investigadores sostienenla tecnología misma puede ser responsable.En este caso, "responsable" significaría tener imparcialidad y ausencia de prejuicios.

Otros estudios hacen referencia alas prácticas en torno a la IAâcomo diseño, desarrollo y usoâser responsable.Esto significaría prácticas que sean legales, rastreables, confiables y centradas en mitigar el sesgo.

El plan aprobado en la reciente cumbre de Seúl se alinea con esta última interpretación.Aboga por que cualquiera que utilice IA en el ejército debe cumplir con las leyes nacionales e internacionales pertinentes.

También destacala importancia de los roles humanosen el desarrollo, despliegue y uso de la IA en el ámbito militar.Esto incluye garantizar que el juicio humano y el control sobre el uso de la fuerza se gestionen de manera responsable y segura.

Esta es una distinción importante, porque muchas narrativas sobre la IA implican falsamente una ausencia de participación y responsabilidad humana.

¿Qué pueden hacer los gobiernos para utilizar la IA militar de manera responsable?

Las discusiones en la cumbre se centraron en gran medida en las medidas concretas que los gobiernos pueden tomar para apoyar el uso responsable de la IA militar.

Dado que el uso militar de la IA está aumentando actualmente, necesitamos medidas provisionales para abordarlo.Una sugerencia fue llegar a acuerdos sobre regulación de la IA en diferentes regiones, en lugar de tardar más en alcanzar un consenso global y universal.

para mejorarEn cuanto a la IA militar, también podríamos aprovechar las lecciones de desafíos globales anteriores, como la no proliferación nuclear, salvar la capa de ozono y mantener desmilitarizados el espacio ultraterrestre y la Antártida.

Dieciocho meses desde la cumbre inaugural del año pasado, los gobiernos y otras partes responsables han comenzado a implementar procesos de mitigación de riesgos ykits de herramientas para IA militar.

El plan refleja el progreso desde entonces y las ideas discutidas en la cumbre.Propone una serie de medidas tangibles, que incluyen:

  • revisiones legales universales para capacidades militares habilitadas por IA
  • promover el diálogo sobre el desarrollo de medidas para garantizar una IA responsable en el ámbito militar a nivel nacional, regional e internacional
  • Mantener una participación humana adecuada en el desarrollo, despliegue y uso de la IA en el ámbito militar.

Sin embargo, el progreso es lento porque todavía no tenemos una comprensión universal de cómo es realmente la IA militar responsable.

La necesidad de superar estas cuestiones está ejerciendo presión sobre la próxima cumbre (aún no anunciada).Los Países Bajos también hancrear un organismo de expertospromover un enfoque globalmente consistente hacia la IA militar.

La humanidad puede beneficiarse de las herramientas de IA.Pero necesitamos urgentemente garantizar que los riesgos que plantean no proliferen, especialmente en el ámbito militar.

Este artículo se republica desdeLa conversaciónbajo una licencia Creative Commons.Lea elartículo original.The Conversation

Citación:Las potencias mundiales están lidiando con el uso "responsable" de la IA militar.¿Cómo sería eso?(2024, 17 de septiembre)recuperado el 17 de septiembre de 2024de https://techxplore.com/news/2024-09-global-powers-grappling-responsible-military.html

Este documento está sujeto a derechos de autor.Aparte de cualquier trato justo con fines de estudio o investigación privados, noparte puede ser reproducida sin el permiso por escrito.El contenido se proporciona únicamente con fines informativos.