algorithm
图片来源:Pixabay/CC0 公共领域

近十年来,研究人员一直在收集证据,证明社交媒体平台 Facebook 不成比例地放大了低质量的内容误传

因此,当 2023 年杂志科学发表了一项研究研究发现 Facebook 的算法并不是 2020 年美国大选期间错误信息的主要驱动因素。

这项研究由 Facebook 母公司 Meta 资助。几位 Meta 员工也是作者团队的成员。吸引了广泛媒体报道。也曾是Meta 全球事务总裁尼克·克莱格 (Nick Clegg) 庆祝他表示,这表明该公司的算法“对两极分化、政治态度或信仰没有明显的影响”。

但最近,马萨诸塞大学阿默斯特分校的 Chhandak Bagch 领导的研究小组对这一发现提出了质疑。在一个电子信函还发表于科学,他们认为结果很可能是由于 Facebook 修改了研究正在进行时。

回复电子信最初研究的作者承认,如果 Facebook 以不同的方式改变其算法,他们的结果“可能会有所不同”。但他们坚称他们的结果仍然正确。

整个失败凸显了大型科技资助和促进对自己产品的研究所造成的问题。它还强调了加强对社交媒体平台的独立监督的迫切需要。

怀疑的商人

大科技已经开始大量投资对其产品进行学术研究。它还对大学进行了大量投资。例如,Meta 及其首席执行官马克·扎克伯格已集体捐款数亿向美国 100 多所学院和大学提供资金。

这与大型烟草公司曾经的做法类似。

20世纪50年代中期,卷烟公司发起了协调一致的活动对越来越多的证据提出质疑,这些证据将吸烟与癌症等许多严重的健康问题联系起来。这并不是要明确地伪造或操纵研究,而是有选择地资助研究并引起人们对不确定结果的关注。

这有助于形成这样一种叙述:没有确切的证据吸烟会导致癌症。反过来,这使烟草公司能够保持责任感和“善意”的公众形象进入20世纪90年代

积极的旋转

Meta 资助的研究发表于科学2023年声称Facebook的新闻提要算法减少了用户接触不可信新闻内容的机会。作者表示“Meta 无权获得出版前批准”,但也承认Facebook 的开放研究和透明度团队“为执行整个项目提供了大力支持。”

该研究使用了参与者(Facebook 用户)被随机分配到对照组或治疗组。

继续使用 Facebook 的算法新闻源,而治疗组则收到按时间倒序排列内容的新闻源。该研究试图比较这两种类型的新闻源对用户接触来自不可信新闻来源的潜在虚假和误导性信息的影响。

该实验非常稳健且设计良好。但在进行的短时间内,Meta 改变了其新闻推送算法,以增加更可靠的新闻内容。这样做,它改变了实验的控制条件。

原始研究中报告的错误信息的减少可能是由于算法的变化。但这些变化是暂时的:几个月后的 2021 年 3 月,Meta 将新闻推送算法恢复为原来的算法。

在一份声明中科学关于这场争议,Meta 表示,它向当时的研究人员明确了这些变化,并且支持克莱格对论文中的发现的陈述。

前所未有的力量

该研究淡化了算法内容管理在错误信息和政治两极分化等问题上的作用,成为人们对社交媒体算法有害影响产生怀疑和不确定性的灯塔。

需要明确的是,我并不是说进行 2023 年原始研究的研究人员误导了公众。真正的问题是社交媒体公司不仅控制研究人员对数据的访问,而且还可以以影响其资助的研究结果的方式操纵他们的系统。

更重要的是,社交媒体公司有能力在研究所在的平台上推广某些研究。反过来,这有助于塑造公众舆论。它可以创造一种场景,让对算法影响的怀疑和质疑变得常态化,或者人们开始不理睬。

这种力量是前所未有的。即使是大型烟草公司也无法如此直接地控制公众对自己的看法。

所有这些都强调了为什么应该要求平台提供大规模数据访问和有关其算法系统变化的实时更新。

当平台控制对“产品”的访问时,它们也控制了有关其影响的科学。最终,这些自研资助模式使平台能够将利润置于人们之上,并转移人们对提高透明度和独立监督的注意力。

本文转载自对话根据知识共享许可。阅读原创文章The Conversation

引文:大型科技正在危害社会吗?为了找到答案,我们需要研究,但它正在被大型科技本身操纵(2024 年,10 月 4 日)检索日期:2024 年 10 月 4 日来自 https://techxplore.com/news/2024-10-big-tech-society.html

本文档受版权保护。除了出于私人学习或研究目的的任何公平交易外,不得未经书面许可,不得复制部分内容。所提供的内容仅供参考。