creation of adam
Crédito: Pixabay/CC0 Dominio público

Un taxi autónomo no lleva pasajeros, por lo que se estaciona solo en un estacionamiento para reducir la congestión ycontaminación del aire.Después de ser parado, el taxi sale a recoger a su pasajero y trágicamente atropella a un peatón en un cruce de peatones en el camino.

¿Quién o qué merece elogios por las acciones del automóvil para reducir la congestión y la contaminación del aire?¿Y quién o qué merece la culpa por las lesiones del peatón?

Una posibilidad es el diseñador o desarrollador del taxi autónomo.Pero en muchos casos, no habrían podido predecir el comportamiento exacto del taxi.De hecho, la gente normalmente quiere que la inteligencia artificial descubra alguna idea o plan nuevo o inesperado.Si sabemos exactamente qué debe hacer el sistema, entonces no tendremos que preocuparnos por la IA.

Alternativamente, quizás el propio taxi debería ser elogiado y culpado.Sin embargo, este tipo de sistemas de IA son esencialmente deterministas: su comportamiento está dictado por su código y los datos entrantes de los sensores, incluso si a los observadores les podría resultar difícil predecir ese comportamiento.Parece extraño juzgar moralmente una máquina que no tuvo otra opción.

De acuerdo amuchos moderno filósofos, agentes racionalespuede ser moralmente responsablepor sus acciones, incluso si sus acciones estuvieran completamente predeterminadas, ya sea por la neurociencia o por el código.Pero la mayoría está de acuerdo en que el agente moral debe tener ciertas capacidades de las que casi con certeza carecen los taxis autónomos, como la capacidad de moldear sus propios valores.Los sistemas de IA se encuentran en un incómodo término medio entre agentes morales y herramientas no morales.

Como sociedad, nos enfrentamos a un enigma: parece que nadie, ni nada, es moralmente responsable de las acciones de la IA, lo que los filósofos llaman una brecha de responsabilidad.Las teorías actuales sobre la responsabilidad moral simplemente no parecen apropiadas para comprender situaciones que involucran sistemas de IA autónomos o semiautónomos.

Si las teorías actuales no funcionan, entonces tal vez deberíamos mirar hacia el pasado, hacia ideas centenarias que hoy tienen una resonancia sorprendente.

Dios y el hombre

Una pregunta similar dejó perplejos a los teólogos cristianos de los siglos XIII y XIV, desdeTomás de AquinoaDuns EscotoaGuillermo de Ockham.¿Cómo pueden las personas ser responsables de sus acciones y de los resultados, si un Dios omnisciente las diseñó y presumiblemente sabía lo que harían?

Los filósofos medievales sostenían que las decisiones de alguien resultan de su voluntad, operando sobre los productos de su.En términos generales entendieronEl intelecto humano como un conjunto de capacidades mentales.que permiten el pensamiento y el aprendizaje racionales.

El intelecto es la parte racional y lógica de la mente o el alma de las personas.Cuando a dos personas se les presentan situaciones idénticas y ambas llegan a la misma "conclusión racional" sobre cómo manejar las cosas, están usando el intelecto.En este sentido, el intelecto es como un código informático.

Pero el intelecto no siempre proporciona una respuesta única.A menudo, el intelecto sólo proporciona posibilidades, yla voluntad selecciona entre ellos, ya sea consciente o inconscientemente.La voluntad es el acto deeligiendo librementede entre las posibilidades.

Como ejemplo sencillo, en un día lluvioso, el intelecto me dicta que debo coger un paraguas de mi armario, pero no cuál.Will elige el paraguas rojo en lugar del azul.

Para estospensadores medievales,responsabilidad moraldependía de lo que la voluntad y el intelecto aportaban cada uno.Si el intelecto determina que sólo hay una acción posible, entonces no puedo hacer otra cosa y, por tanto, no soy moralmente responsable.Incluso se podría concluir que Dios es moralmente responsable, ya que mi intelecto proviene de Dios, aunque los teólogos medievales eran muy cautelosos a la hora de atribuir responsabilidad a Dios.

Por otro lado, si el intelecto no impone ninguna restricción a mis acciones, entonces soy plenamente responsable moralmente, ya que la voluntad hace todo el trabajo.Por supuesto, la mayoría de las acciones implican contribuciones tanto del intelecto como de la voluntad; por lo general, no se trata de una cosa o la otra.

Además, otras personas a menudo nos limitan: desde padres y maestros hasta jueces y monarcas, especialmente en la época de los filósofos medievales, lo que hace aún más complicado atribuir responsabilidad moral.

El hombre y la IA

Claramente, la relación entre los desarrolladores de IA y sus creaciones no es exactamente la misma que entre Dios y los humanos.Pero comoprofesores de filosofia y computacion, vemos paralelos intrigantes.Estas ideas más antiguas podrían ayudarnos hoy a pensar en cómo un sistema de IA y sus diseñadores podrían compartir la responsabilidad moral.

Los desarrolladores de IA no son dioses omniscientes, pero sí proporcionan el "intelecto" del sistema de IA alseleccionar e implementarsus métodos de aprendizaje y capacidades de respuesta.Desde la perspectiva del diseñador, este "intelecto" limita el comportamiento de la IA pero casi nunca determina su comportamiento por completo.

La mayoría de los sistemas de IA modernos están diseñados para aprender de los datos y pueden responder dinámicamente a sus entornos.Por tanto, la IA parecerá tener una "voluntad" que elige cómo responder, dentro de las limitaciones de su "intelecto".

Los usuarios, administradores, reguladores y otras partes pueden limitar aún más los sistemas de IA, de forma análoga a cómo las autoridades humanas, como los monarcas, limitan a las personas en el marco de los filósofos medievales.

¿Quién es el responsable?

Estas ideas milenarias se corresponden sorprendentemente bien con la estructura de los problemas morales que involucran a los sistemas de IA.Así que volvamos a nuestras preguntas iniciales: ¿Quién o qué es responsable de los beneficios y daños del taxi autónomo?

Los detalles importan.Por ejemplo, si el desarrollador del taxi escribe explícitamente cómo debe comportarse el taxi en los cruces peatonales, entonces sus acciones se deben enteramente a su "intelecto" y, por lo tanto, los desarrolladores serían responsables.

Sin embargo, digamos que el taxi encontró situaciones para las que no estaba programado explícitamente, como si el cruce de peatones estaba pintado de una manera inusual o si el taxi aprendió algo diferente a partir de los datos de su entorno de lo que el desarrollador tenía en mente.En casos como estos, las acciones del taxi se deben principalmente a su "voluntad", porque el taxi seleccionó una opción inesperada, por lo que el taxi es responsable.

Si el taxi es moralmente responsable, ¿entonces qué?¿Es responsable la empresa de taxis?¿Debería elTaxiNi siquiera nosotros dos estamos de acuerdo sobre la respuesta completa.Pero creemos que una mejor comprensión dees un primer paso importante.

Las ideas medievales no se refieren sólo a objetos medievales.Estos teólogos pueden ayudar a los especialistas en ética de hoy a comprender mejor el desafío actual de los sistemas de inteligencia artificial, aunque sólo hemos arañado la superficie.

Este artículo se republica desdeLa conversaciónbajo una licencia Creative Commons.Lea elartículo original.The Conversation

Citación:La teología medieval tiene una visión antigua de un nuevo problema: la responsabilidad de la IA (10 de septiembre de 2024)recuperado el 10 de septiembre de 2024de https://techxplore.com/news/2024-09-medieval-theology-problem-ai-responsibility.html

Este documento está sujeto a derechos de autor.Aparte de cualquier trato justo con fines de estudio o investigación privados, noparte puede ser reproducida sin el permiso por escrito.El contenido se proporciona únicamente con fines informativos.