algorithm
Crédito: Pixabay/CC0 Dominio público

Durante casi una década, los investigadores han estado recopilando evidencia de que la plataforma de redes sociales Facebook amplifica desproporcionadamentecontenido de baja calidadydesinformación.

Así que fue una sorpresa cuando en 2023 eldiarioCienciapublicó un estudioque encontró que los algoritmos de Facebook no fueron los principales impulsores de la desinformación durante las elecciones estadounidenses de 2020.

Este estudio fue financiado por la empresa matriz de Facebook, Meta.Varios empleados de Meta también formaron parte del equipo de autoría.Atrajo a numerososcobertura de los medios.También fuecelebrado por el presidente de asuntos globales de Meta, Nick Clegg, quien dijo que demostraba que los algoritmos de la compañía "no tienen ningún impacto detectable en la polarización, las actitudes o creencias políticas".

Pero los hallazgos recientemente han sido puestos en duda por un equipo de investigadores dirigido por Chhandak Bagch de la Universidad de Massachusetts Amherst.en unCarta electrónica también publicada enCiencia, argumentan que los resultados probablemente se debieron a que Facebook modificó elmientras se realizaba el estudio.

Enuna carta electrónica de respuesta, los autores del estudio original reconocen que sus resultados "podrían haber sido diferentes" si Facebook hubiera cambiado su algoritmo de otra manera.Pero insisten en que sus resultados siguen siendo válidos.

Toda la debacle pone de relieve los problemas causados ​​por la financiación de las grandes tecnologías y la facilitación de la investigación de sus propios productos.También destaca la necesidad crucial de una mayor supervisión independiente de las plataformas de redes sociales.

Mercaderes de dudas

Gran tecnologíaha comenzado a invertir fuertementeen la investigación académica de sus productos.También ha estado invirtiendo fuertemente en las universidades en general.Por ejemplo, Meta y su jefe Mark Zuckerberghan donado colectivamente cientos de millonesde dólares a más de 100 colegios y universidades en todo Estados Unidos.

Esto es similar a lo que alguna vez hicieron las grandes tabacaleras.

A mediados de la década de 1950, las empresas tabacaleraslanzó una campaña coordinadapara generar dudas sobre el creciente conjunto de pruebas que vinculan el tabaquismo con una serie de problemas de salud graves, como el cáncer.No se trataba de falsificar o manipular la investigación explícitamente, sino de financiar estudios selectivamente y llamar la atención sobre resultados no concluyentes.

Esto ayudó a fomentar una narrativa de que habíano hay pruebas definitivasfumar causa cáncer.A su vez, esto permitió a las empresas tabacaleras mantener una imagen pública de responsabilidad y "buena voluntad".hasta bien entrada la década de 1990.

Un giro positivo

El estudio financiado por Meta y publicado enCienciaen 2023 afirmó que el algoritmo de suministro de noticias de Facebook reducía la exposición de los usuarios a contenidos de noticias no confiables.Los autores dijeron que "Meta no tenía derecho a la aprobación previa a la publicación", pero reconocieron queEl Facebook Abierto Investigación y TransparenciaEl equipo "proporcionó un apoyo sustancial en la ejecución del proyecto general".

El estudio utilizó undonde los participantes (usuarios de Facebook) fueron asignados aleatoriamente a un grupo de control o a un grupo de tratamiento.

Elcontinuaron usando el servicio de noticias algorítmico de Facebook, mientras que al grupo de tratamiento se le proporcionó un servicio de noticias con contenido presentado en orden cronológico inverso.El estudio buscó comparar los efectos de estos dos tipos de fuentes de noticias sobre la exposición de los usuarios a información potencialmente falsa y engañosa proveniente de fuentes de noticias no confiables.

El experimento fue robusto y bien diseñado.Pero durante el corto tiempo que se llevó a cabo, Meta cambió su algoritmo de suministro de noticias para impulsar contenido de noticias más confiable.Al hacerlo, cambió la condición de control del experimento.

La reducción en la exposición a información errónea reportada en el estudio original probablemente se debió a los cambios algorítmicos.Pero estos cambios fueron temporales: unos meses después, en marzo de 2021, Meta revirtió el algoritmo de transmisión de noticias al original.

en una declaraciónaCienciaSobre la controversia, Meta dijo que dejó claros los cambios a los investigadores en ese momento y que respalda las declaraciones de Clegg sobre los hallazgos en el artículo.

Poder sin precedentes

Al restar importancia al papel de la curación algorítmica de contenidos en cuestiones como la desinformación y la polarización política, el estudio se convirtió en un faro para sembrar dudas e incertidumbre sobre la influencia dañina de los algoritmos de las redes sociales.

Para ser claros, no estoy sugiriendo que los investigadores que realizaron el estudio original de 2023 engañaran al público.El verdadero problema es que las empresas de redes sociales no sólo controlan el acceso de los investigadores a los datos, sino que también pueden manipular sus sistemas de una manera que afecte los hallazgos de los estudios que financian.

Es más, las empresas de redes sociales tienen el poder de promover ciertos estudios en la misma plataforma en la que se tratan.A su vez, esto ayuda a moldear la opinión pública.Puede crear un escenario en el que el escepticismo y las dudas sobre los impactos de los algoritmos puedan normalizarse, o en el que la gente simplemente empiece a desconectarse.

Este tipo de poder no tiene precedentes.Ni siquiera las grandes tabacaleras podían controlar tan directamente la percepción que el público tenía de sí mismas.

Todo esto subraya por qué las plataformas deberían tener el mandato de proporcionar acceso a datos a gran escala y actualizaciones en tiempo real sobre los cambios en sus sistemas algorítmicos.

Cuando las plataformas controlan el acceso al "producto", también controlan la ciencia en torno a sus impactos.En última instancia, estos modelos de financiación de la autoinvestigación permiten que las plataformas antepongan las ganancias a las personas y desvíen la atención de la necesidad de una mayor transparencia y supervisión independiente.

Este artículo se republica desdeLa conversaciónbajo una licencia Creative Commons.Lea elartículo original.The Conversation

Citación:¿Las grandes tecnologías están perjudicando a la sociedad?Para averiguarlo, necesitamos investigación, pero está siendo manipulada por la propia gran tecnología (2024, 4 de octubre)recuperado el 4 de octubre de 2024de https://techxplore.com/news/2024-10-big-tech-society.html

Este documento está sujeto a derechos de autor.Aparte de cualquier trato justo con fines de estudio o investigación privados, noparte puede ser reproducida sin el permiso por escrito.El contenido se proporciona únicamente con fines informativos.