Humanising AI could lead us to dehumanise ourselves
Captura de pantalla de información contradictoria en la página de ayuda de Replika versus publicidad.

El escritor irlandés John Connollyuna vez dijo: "La naturaleza de la humanidad, su esencia, es sentir el dolor de otro como propio y actuar para eliminar ese dolor".

Durante la mayor parte de nuestra historia, creímos que la empatía era un rasgo exclusivamente humano: una habilidad especial que nos diferenciaba de las máquinas y otros animales.Pero esta creencia ahora está siendo cuestionada.

A medida que la IA se convierte en una parte más importante de nuestras vidas, entrando incluso en nuestras esferas más íntimas, nos enfrentamos a un enigma filosófico: ¿atribuir cualidades humanas a la IA podría disminuir nuestra propia esencia humana?Nuestroinvestigaciónsugiere que sí puede.

Compañerismo digitalizador

En los últimos años, las aplicaciones "compañeras" de IA, como Replika, han atraído a millones de usuarios.Replika permite a los usuarios crear socios digitales personalizados para entablar conversaciones íntimas.Miembros que pagan porRéplica ProIncluso pueden convertir su IA en una "pareja romántica".

Los compañeros físicos de IA no se quedan atrás.Empresas como JoyLoveDolls están vendiendorobots sexuales interactivoscon funciones personalizables que incluyen el tamaño de los senos, el origen étnico, el movimiento y las respuestas de la IA, como gemidos y coqueteos.

Si bien esto es actualmente un, la historia sugiere que las tendencias digitales de hoy se convertirán en las normas globales del mañana.Con aproximadamenteuno de cada cuatroA medida que los adultos se sienten solos, crecerá la demanda de compañeros de IA.

Los peligros de humanizar la IA

Los seres humanos han atribuido durante mucho tiempo rasgos humanos a entidades no humanas, una tendencia conocida como antropomorfismo.No sorprende que estemos haciendo esto con herramientas de inteligencia artificial como ChatGPT, que parecen "pensar" y "sentir".Pero, ¿por qué es un problema humanizar la IA?

Por un lado, permite a las empresas de inteligencia artificial explotar nuestra tendencia a formar vínculos con entidades de apariencia humana.réplica escomercializadocomo "el compañero de IA que se preocupa".Sin embargo, para evitar, la compañía señala en otra parte que Replika no es sensible y simplemente aprende a través de millones de interacciones de los usuarios.

Algunas empresas de IA abiertamenteafirmarsus asistentes de IA tienen empatía e incluso pueden anticipar las necesidades humanas.Tales afirmaciones son engañosas y pueden aprovecharse de las personas que buscan compañía.Los usuarios pueden involucrarse profundamente emocionalmente si creen que su compañero de IA realmente los comprende.

Esto plantea serias preocupaciones éticas.un usuariodudaráeliminar (es decir, "abandonar" o "matar") a su compañero de IA una vez que le hayan atribuido algún tipo de sensibilidad.

Pero, ¿qué sucede cuando dicho compañero desaparece inesperadamente, por ejemplo si el usuario ya no puede pagarlo o si la empresa que lo administra cierra?Si bien el compañero puede no ser real, los sentimientos que se le atribuyen sí lo son.

Empatía: más que una salida programable

Al reducir la empatía a una salida programable, ¿corremos el riesgo de disminuir su verdadera esencia?Para responder a esto, pensemos primero en qué es realmente la empatía.

La empatía implica responder a otras personas con comprensión e interés.Es cuando compartes el dolor de tu amigo mientras te cuenta su dolor, o cuando sientes la alegría que irradia alguien que te importa.Es una experiencia profunda, rica y que va más allá de simples formas de medición.

Una diferencia fundamental entre los humanos y la IA es que los humanos realmente sienten emociones, mientras que la IA sólo puede simularlas.Esto toca eldifícil problema de la conciencia, que cuestiona cómo las experiencias humanas subjetivas surgen de procesos físicos en el cerebro.

Si bien la IA puede simular comprensión, cualquier "empatía" que pretenda tener es el resultado de una programación que imita patrones de lenguaje empático.Desafortunadamente, los proveedores de IA tienen un incentivo financiero para engañar a los usuarios para que se apeguen a sus productos aparentemente empáticos.

La hipótesis de la deshumanización

Nuestra "hipótesis de la deshumanización" destaca las preocupaciones éticas que surgen al intentar reducir a los humanos a algunas funciones básicas que pueden ser replicadas por una máquina.Cuanto más humanizamos la IA, más corremos el riesgo de deshumanizarnos.

Por ejemplo, depender de la IA para el trabajo emocional podría hacernos menos tolerantes con las imperfecciones de las relaciones reales.Esto podría debilitar nuestros vínculos sociales e incluso conducir a una pérdida de habilidades emocionales.Las generaciones futuras pueden volverse menos empáticas y perder el control de las cualidades humanas esenciales a medida que las habilidades emocionales sigan mercantilizándose y automatizandose.

Además, a medida que los compañeros de IA se vuelven más comunes, las personas pueden usarlos para reemplazar las relaciones humanas reales.Esto probablemente aumentaría la soledad y la alienación, los mismos problemas con los que estos sistemas dicen ayudar.

La recopilación y el análisis de datos emocionales por parte de las empresas de inteligencia artificial también plantea riesgos importantes, ya que estos datos podrían usarse para manipular a los usuarios y maximizar las ganancias.Esto erosionaría aún más nuestra privacidad y autonomía, llevando el capitalismo de vigilancia al siguiente nivel.

Responsabilizar a los proveedores

Los reguladores deben hacer más para responsabilizar a los proveedores de IA.Las empresas de IA deben ser honestas acerca de lo que su IA puede y no puede hacer, especialmente cuando corren el riesgo de explotar las vulnerabilidades emocionales de los usuarios.

Afirmaciones exageradas de "genuina" debería declararse ilegal. Las empresas que hagan tales afirmaciones deberían ser multadas y cerrar a los infractores reincidentes.

Las políticas de privacidad de datos también deben ser claras, justas y sin términos ocultos que permitan a las empresas explotar el contenido generado por los usuarios.

Debemos preservar las cualidades únicas que definen la experiencia humana.Si bien la IA puede mejorar ciertos aspectos de la vida, no puede (ni debe) reemplazar la conexión humana genuina.

Este artículo se republica desdeLa conversaciónbajo una licencia Creative Commons.Lea elartículo original.The Conversation

Citación:Humanizar la IA podría llevarnos a deshumanizarnos (21 de octubre de 2024)recuperado el 21 de octubre de 2024de https://techxplore.com/news/2024-10-humanizing-ai-dehumanize.html

Este documento está sujeto a derechos de autor.Aparte de cualquier trato justo con fines de estudio o investigación privados, noparte puede ser reproducida sin el permiso por escrito.El contenido se proporciona únicamente con fines informativos.