artificial intelligence
Crédito: Pixabay/CC0 Dominio público

Durante décadas, el ejército ha utilizado armas autónomas como minas, torpedos y misiles guiados por calor que funcionan basándose en una simple retroalimentación reactiva sin control humano.Sin embargo, la inteligencia artificial (IA) ha entrado ahora en el ámbito del diseño de armas.

Según Kanaka Rajan, profesora asociada de neurobiología en el Instituto Blavatnik de la Facultad de Medicina de Harvard, y su equipo, los sistemas basados ​​en IArepresentan una nueva era en la guerra y plantean una amenaza concreta al progreso científico y la investigación básica.

Rajan dijo que se están desarrollando y desplegando activamente armas impulsadas por inteligencia artificial, que a menudo involucran drones o robots.Ella espera que con el tiempo se vuelvan más capaces, sofisticados y ampliamente utilizados debido a la facilidad con la que prolifera dicha tecnología.

Mientras eso sucede, le preocupa cómo las armas impulsadas por IA pueden conducir a inestabilidad geopolítica y cómo su desarrollo podría afectar la investigación no militar de IA en el mundo académico y la industria.

Rajan, junto con los investigadores del HMS en neurobiología Riley Simmons-Edler y Ryan Badman y el MIT Ph.D.estudiante Shayne Longpre, describe sus preocupaciones centrales, y un camino a seguir, en undocumento de posición publicadoy presentado en el2024 Conferencia internacional sobre aprendizaje automático.

En una conversación con Harvard Medicine News, Rajan explicó por qué ella y su equipo decidieron investigar el tema de las tecnologías basadas en IA., cuáles ven como los mayores riesgos y qué creen que debería suceder a continuación.

Eres un neurocientífico computacional que estudia la IA en el contexto de los cerebros humanos y animales.¿Cómo terminaste pensando en las armas autónomas impulsadas por IA?

Comenzamos a considerar este tema como reacción a una serie de predicciones apocalípticas sobre la inteligencia artificial general que circularon en la primavera de 2023. Nos preguntamos: si esas predicciones son realmente desproporcionadas, ¿cuáles son los riesgos reales para la sociedad humana?Analizamos cómo el ejército utiliza la IA y vimos que la investigación y el desarrollo militares están impulsando fuertemente la construcción de sistemas de armas autónomas impulsadas por IA con implicaciones globales.

Nos dimos cuenta de que la comunidad académica de investigación en IA no estaría aislada de las consecuencias del desarrollo generalizado de estas armas.Los militares a menudo carecen de experiencia suficiente para desarrollar e implementar tecnología de IA sin asesoramiento externo, por lo que deben recurrir al conocimiento de expertos académicos y de la industria en IA.Esto plantea importantes cuestiones éticas y prácticas para los investigadores y administradores de, similares a los que rodean a cualquier gran corporación que financia la investigación académica.

¿Cuáles cree que son los mayores riesgos a medida que la IA y el aprendizaje automático se incorporan a las armas?

Hay una serie de riesgos involucrados en el desarrollo de armas impulsadas por IA, pero los tres más importantes que vemos son: primero, cómo estas armas pueden facilitar que los países se involucren en conflictos;en segundo lugar, cómo la investigación científica no militar sobre IA puede ser censurada o cooptada para apoyar el desarrollo de estas armas;y tercero, cómo los militares pueden utilizar tecnología autónoma impulsada por IA para reducir o desviar la responsabilidad humana en la toma de decisiones.

En primer lugar, un gran elemento disuasorio que impide que las naciones inicien guerras es la muerte de soldados, un costo humano para sus ciudadanos que puede crear consecuencias internas para los líderes.Gran parte del desarrollo actual de armas impulsadas por IA tiene como objetivo sacar a los soldados humanos del peligro, lo que en sí mismo es algo humano.Sin embargo, si pocos soldados mueren en una guerra ofensiva, se debilita la asociación entre los actos de guerra y el costo humano, y resulta políticamente más fácil iniciar guerras, lo que, a su vez, puede conducir a más muerte y destrucción en general.Por lo tanto, podrían surgir rápidamente importantes problemas geopolíticos a medida que las carreras armamentistas impulsadas por la IA se amplíen y dicha tecnología prolifere aún más.

En cuanto al segundo punto, podemos mirar la historia de campos académicos como la física nuclear y los cohetes.A medida que estos campos adquirieron importancia crítica para la defensa durante la Guerra Fría, los investigadores experimentaron restricciones de viaje, censura de publicaciones y la necesidad de autorización de seguridad para realizar el trabajo básico.A medida que la tecnología autónoma impulsada por la IA se vuelve central para la planificación de la defensa nacional en todo el mundo, podríamos ver restricciones similares impuestas a la investigación no militar de la IA, lo que impediría en gran medida la investigación básica de la IA, las aplicaciones civiles valiosas en la atención médica y la investigación científica, y.Consideramos que esto es una preocupación urgente dada la velocidad a la que está creciendo la investigación en IA y la investigación y el desarrollo de armas impulsadas por IA están ganando terreno.

Finalmente, si las armas impulsadas por IA se vuelven fundamentales para la defensa nacional, es posible que veamos grandes intentos de cooptar los esfuerzos de los investigadores de IA en la academia y la industria para trabajar en estas armas o desarrollar más proyectos de "doble uso".Si cada vez más conocimientos de IA comienzan a quedar encerrados detrás de autorizaciones de seguridad, intelectualmente atrofiará nuestro campo.Algunos científicos informáticos ya están pidiendo restricciones tan drásticas, pero su argumento descarta el hecho de que las nuevas tecnologías armamentísticas siempre tienden a proliferar una vez que se han iniciado.

¿Por qué crees que quienes piensan en las amenazas que plantea la IA han pasado relativamente por alto el diseño de armas?

Una razón es que se trata de un panorama nuevo y que cambia rápidamente: desde 2023, varias potencias importantes han comenzado a adoptar rápida y públicamente armas impulsadas por IA.Además, los sistemas de armas individuales impulsados ​​por IA pueden parecer menos amenazantes de forma aislada, lo que facilita pasar por alto problemas, que cuando se consideran como un conjunto más amplio de sistemas y capacidades.

Otro desafío es que las empresas de tecnología son opacas sobre el grado de autonomía y supervisión humana de sus sistemas de armas.Para algunos, la supervisión humana podría significar presionar un botón de "ir a matar" después de que una unidad de armas de IA toma una larga cadena de decisiones de caja negra, sin que el humano comprenda o pueda detectar errores en la lógica del sistema.Para otros, podría significar que un humano tiene más control práctico y está verificando el proceso de toma de decisiones de la máquina.

Desafortunadamente, a medida que estos sistemas se vuelven más complejos y poderosos, y los tiempos de reacción en la guerra deben ser más rápidos, es más probable que el resultado de la caja negra se convierta en la norma.Además, ver "humanos en el circuito" en armas autónomas impulsadas por IA puede hacer que los investigadores piensen que el sistema es ético según los estándares militares, cuando en realidad no involucra significativamente a los humanos en la toma de decisiones.

¿Cuáles son las preguntas de investigación más urgentes que deben responderse?

Si bien aún queda mucho trabajo por hacer para construir armas impulsadas por IA, la mayoría de los algoritmos centrales ya han sido propuestos o son el foco de importantes investigaciones académicas e industriales motivadas por aplicaciones no militares, por ejemplo, vehículos autónomos.Teniendo esto en cuenta, debemos considerar nuestra responsabilidad como científicos e investigadores a la hora de guiar éticamente la aplicación de estas tecnologías y cómo afrontar los efectos del interés militar en nuestra investigación.

Si los ejércitos de todo el mundo pretenden reemplazar una parte sustancial del campo de batalla y las funciones de apoyo con unidades impulsadas por IA, necesitarán el apoyo de expertos académicos y de la industria.Esto plantea interrogantes sobre qué papel deberían desempeñar las universidades en la revolución militar de la IA, qué fronteras no deberían traspasarse y qué órganos centralizados de supervisión y vigilancia deberían crearse para monitorear el uso de la IA en las armas.

En términos de proteger la investigación no militar, es posible que debamos pensar qué desarrollos de IA pueden clasificarse como de código cerrado o de código abierto, cómo establecer acuerdos de uso y cómo las colaboraciones internacionales se verán afectadas por la creciente militarización de la informática.

¿Cómo podemos avanzar de una manera que permita la investigación creativa de la IA y al mismo tiempo protejamos contra su uso con fines armamentísticos?

Los académicos han tenido y seguirán teniendo colaboraciones importantes y productivas con el gobierno y las principales empresas involucradas en tecnología, medicina e información, así como con el ejército.Sin embargo, históricamente los académicos también han tenido colaboraciones vergonzosas y dañinas con las industrias del azúcar, los combustibles fósiles y el tabaco.Las universidades modernas tienen requisitos institucionales de capacitación, supervisión y transparencia para ayudar a los investigadores a comprender los riesgos y sesgos éticos de la financiación industrial y evitar producir ciencia éticamente dudosa.

Hasta donde sabemos, actualmente no existe tal capacitación y supervisión para la financiación militar.Los problemas que planteamos son complejos y no pueden resolverse con una sola política, pero creemos que un buen primer paso es que las universidades creen seminarios de debate, reglamentos internos y procesos de supervisión para las agencias militares, de defensa y de seguridad nacional.proyectos financiados que son similares a los que ya existen para proyectos financiados por la industria.

¿Cuál crees que es un resultado realista?

Algunos miembros de la comunidad han pedido una prohibición total de la IA militar.Si bien estamos de acuerdo en que esto sería moralmente ideal, reconocemos que no es realista: la IA es demasiado útil para fines militares como para lograr el consenso internacional necesario para establecer o hacer cumplir dicha prohibición.

En cambio, creemos que los países deberían centrar sus esfuerzos en desarrollar armas impulsadas por IA que aumenten, en lugar de reemplazar, a los soldados humanos.Al priorizar la supervisión humana de estas armas, es de esperar que podamos prevenir los peores riesgos.

También queremos enfatizar que las armas de IA no son un monolito y deben ser examinadas por su capacidad.Es importante para nosotros prohibir y regular las clases más atroces de armas de IA lo antes posible y que nuestras comunidades e instituciones establezcan límites que no se deben cruzar.

Citación:Preguntas y respuestas: Los expertos advierten sobre los riesgos de las armas autónomas impulsadas por IA (7 de agosto de 2024)recuperado el 7 de agosto de 2024de https://techxplore.com/news/2024-08-qa-experts-ai-powered-autonomous.html

Este documento está sujeto a derechos de autor.Aparte de cualquier trato justo con fines de estudio o investigación privados, noparte puede ser reproducida sin el permiso por escrito.El contenido se proporciona únicamente con fines informativos.