Humans sympathize with, and protect, AI bots from playtime exclusion, finds study
Capturas de pantalla de (a) la historia de portada y (b) la interfaz del juego de Cyberball.Crédito:Comportamiento humano y tecnologías emergentes(2024).DOI: 10.1155/2024/8864909

En un estudio del Imperial College de Londres, los humanos mostraron simpatía y protegieron a los robots de IA que estaban excluidos del tiempo de juego.Los investigadores dicen que el estudio, que utilizó un juego de pelota virtual, destaca la tendencia de los humanos a tratar a los agentes de IA como seres sociales, una inclinación que debe tenerse en cuenta al diseñar robots de IA.

El estudio se publica enComportamiento humano y tecnologías emergentes.

El autor principal, Jianan Zhou, de la Escuela de Ingeniería de Diseño Dyson de Imperial, dijo: "Esta es una visión única de cómo los humanos interactúan con la IA, con implicaciones interesantes para su diseño y nuestra psicología".

Se requiere cada vez más que las personas interactúen con agentes virtuales de IA al acceder a los servicios, y muchos también los utilizan como compañeros para.Sin embargo, estos hallazgos sugieren que los desarrolladores deberían evitar diseñar agentes demasiado parecidos a los humanos.

La autora principal, la Dra. Nejra van Zalk, también de la Escuela de Ingeniería de Diseño Dyson de Imperial, dijo: "Un pequeño pero creciente conjunto de investigaciones muestra hallazgos contradictorios sobre si los humanos tratan a los agentes virtuales de IA como seres sociales. Esto plantea preguntas importantes sobre cómo las personas perciben yinteractuar con estos agentes.

"Nuestros resultados muestran que los participantes tendían a tratar a los agentes virtuales de IA como seres sociales, porque intentaban incluirlos en el juego de lanzamiento de pelotas si sentían que la IA estaba siendo excluida. Esto es común en las interacciones entre humanos, y nuestrosLos participantes mostraron la misma tendencia a pesar de que sabían que estaban lanzando una pelota a un agente virtual. Curiosamente, este efecto fue más fuerte en los participantes de mayor edad".

A la gente no le gusta el ostracismo, ni siquiera hacia la IA

Sentir empatía y tomar medidas correctivas contra la injusticia es algo que la mayoría de los humanos parecen estar programados para hacer.Estudios anteriores que no involucraron IA encontraron que las personas tendían a compensar a los objetivos excluidos lanzándoles la pelota con más frecuencia, y que también tendían a no agradarles al perpetrador del comportamiento excluyente mientras sentían preferencia y simpatía hacia el objetivo.

Para llevar a cabo el estudio, los investigadores observaron cómo respondieron 244 participantes humanos cuando observaron que otro humano excluía del juego a un agente virtual de IA en un juego llamado "Cyberball", en el que los jugadores se pasan una pelota virtual entre sí en la pantalla..Los participantes tenían entre 18 y 62 años.

En algunos juegos, el humano no participante lanzó la pelota un buen número de veces al bot, y en otros, el humano no participante excluyó descaradamente al bot al lanzar la pelota solo al participante.

Se observó a los participantes y posteriormente se les encuestó para conocer sus reacciones para comprobar si estaban a favor de lanzar la pelota al robot después de que lo trataran injustamente y por qué.

Descubrieron que la mayoría de las veces, los participantes intentaban rectificar la injusticia hacia el robot prefiriendo lanzarle la pelota.Los participantes de mayor edad tenían más probabilidades de percibir injusticia.

Precaución humana

Los investigadores dicen que a medida que los agentes virtuales de IA se vuelven más populares en tareas colaborativas, un mayor compromiso con los humanos podría aumentar nuestra familiaridad y desencadenar el procesamiento automático.Esto significaría que los usuarios probablemente incluirían intuitivamente agentes virtuales como miembros reales del equipo e interactuarían socialmente con ellos.

Esto, dicen, puede ser una ventaja para la colaboración laboral, pero podría ser preocupante si se utilizan agentes virtuales como amigos para reemplazar., o como asesores en materia de salud física o mental.

Jianan dijo: "Al evitar diseñar agentes demasiado parecidos a los humanos, los desarrolladores podrían ayudar a las personas a distinguir entre interacción virtual y real. También podrían adaptar su diseño a rangos de edad específicos, por ejemplo, teniendo en cuenta cómo nuestras diferentes características humanas afectan nuestra percepción."

Los investigadores señalan que Cyberball podría no representar cómo interactúan los humanos en escenarios de la vida real, que generalmente ocurren a través del lenguaje hablado o escrito con chatbots o asistentes de voz.Esto podría haber entrado en conflicto con las expectativas de los usuarios de algunos participantes y haber generado sentimientos de extrañeza, lo que afectó sus respuestas durante el experimento.

Por lo tanto, ahora están diseñando experimentos similares utilizando conversaciones cara a cara con agentes en diversos contextos, como en el laboratorio o en entornos más informales.De esta manera, pueden probar hasta dónde se extienden sus hallazgos.

Más información:Jianan Zhou et al, Los humanos tratan sin pensar a los agentes virtuales de IA como seres sociales, pero esta tendencia disminuye entre los jóvenes: evidencia de un experimento Cyberball,Comportamiento humano y tecnologías emergentes(2024).DOI: 10.1155/2024/8864909

Citación:Los humanos simpatizan con los robots de IA y los protegen de la exclusión del tiempo de juego, según un estudio (2024, 17 de octubre)recuperado el 17 de octubre de 2024de https://techxplore.com/news/2024-10-humans-sympathize-ai-bots-playtime.html

Este documento está sujeto a derechos de autor.Aparte de cualquier trato justo con fines de estudio o investigación privados, noparte puede ser reproducida sin el permiso por escrito.El contenido se proporciona únicamente con fines informativos.