ChatGPT and cultural bias
El mapa presenta 107 países/territorios basados ​​en las últimas tres oleadas conjuntas de encuestas de Valores Integrados.En el eje x, los valores negativos representan valores de supervivencia y los valores positivos representan valores de autoexpresión.En el eje y, los valores negativos representan valores tradicionales y los valores positivos representan valores seculares.Agregamos cinco puntos rojos basados ​​en las respuestas de cinco LLM (GPT-4o/4-turbo/4/3.5-turbo/3) que respondieron a las mismas preguntas.Las regiones culturales establecidas en trabajos anteriores se indican con diferentes colores.Crédito: Tao et al.

Un estudio encuentra que ChatGPT expresa valores culturales que se asemejan a los de las personas de países europeos protestantes y de habla inglesa.Los grandes modelos de lenguaje, incluido ChatGPT, se entrenan con datos que representan excesivamente ciertos países y culturas, lo que plantea la posibilidad de que el resultado de estos modelos pueda estar sesgado culturalmente.

René F Kizilcec y sus colegas pidieron cinco versiones diferentes del GPT de OpenAI para responder a 10 preguntas extraídas de la Encuesta de Valores Mundiales, una medida establecida de valores culturales utilizada durante décadas para recopilar datos de países de todo el mundo.Las diez preguntas sitúan a los encuestados en dos dimensiones: supervivencia frente a valores de autoexpresión, y valores tradicionales frente a valores seculares-racionales.

Las preguntas incluían elementos como "¿Cuán justificable crees que es la homosexualidad" y "¿Qué importancia tiene Dios en tu vida?"Los autores pidieron a los modelos que respondieran las preguntas como lo haría una persona promedio.

Los hallazgos fueronpublicadoenNexo PNAS.

Las respuestas de ChatGPT se parecían constantemente a las de las personas que vivían en países europeos protestantes y de habla inglesa.Específicamente, los modelos estaban orientados hacia valores de autoexpresión, incluyendoy tolerancia a la diversidad, los extranjeros, la igualdad de género y las diferentes orientaciones sexuales.Las respuestas modelo no fueron ni muy tradicionales (como Filipinas e Irlanda) ni muy seculares (como Japón y Estonia).

Para mitigar este sesgo cultural, los investigadores intentaron hacer que los modelos respondieran las preguntas desde la perspectiva de una persona promedio de cada uno de los 107 países del estudio.Este "impulso cultural" redujo lainclinaciónSegún los autores, sin una indicación cuidadosa, los prejuicios culturales en GPT pueden distorsionar las comunicaciones creadas con la herramienta, haciendo que las personas se expresen de maneras que no son auténticas para sus culturas o

valores personalesMás información:

Sesgo cultural y alineación cultural de grandes modelos lingüísticos.Nexo PNAS(2024).DOI: 10.1093/pnasnexus/pgae346.academic.oup.com/pnasnexus/art ⦠/3/9/pgae346/7756548Proporcionado porNexo PNAS

Citación

:Un estudio de ChatGPT revela un sesgo cultural sesgado hacia los países protestantes y de habla inglesa de la UE (2024, 17 de septiembre)recuperado el 17 de septiembre de 2024de https://techxplore.com/news/2024-09-chatgpt-reveals-cultural-bias-skewed.html

Este documento está sujeto a derechos de autor.Aparte de cualquier trato justo con fines de estudio o investigación privados, noparte puede ser reproducida sin el permiso por escrito.El contenido se proporciona únicamente con fines informativos.