algorithm
圖片來源:Pixabay/CC0 公共領域

近十年來,研究人員一直在收集證據,證明社群媒體平台 Facebook 不成比例地放大了低品質的內容誤傳

因此,當 2023 年雜誌科學發表了一項研究研究發現 Facebook 的演算法並不是 2020 年美國大選期間錯誤訊息的主要驅動因素。

這項研究由 Facebook 母公司 Meta 資助。幾位 Meta 員工也是作者團隊的成員。吸引了廣泛媒體報道。也曾是Meta 全球事務總裁 Nick Clegg 慶祝他表示,這表明該公司的演算法「對兩極化、政治態度或信念沒有明顯的影響」。

但最近,由馬薩諸塞大學阿默斯特分校的 Chhandak Bagch 領導的研究小組對這項發現提出了質疑。在一個電子信函也發表於科學,他們認為結果很可能是由於 Facebook 修改了研究正在進行時。

回覆電子信最初研究的作者承認,如果 Facebook 以不同的方式改變其演算法,他們的結果「可能會有所不同」。但他們堅稱他們的結果仍然正確。

整個失敗凸顯了大型科技資助和促進對自己產品的研究所造成的問題。它也強調了加強對社群媒體平台的獨立監督的迫切需求。

懷疑的商人

大科技已經開始大量投資對其產品進行學術研究。它還對大學進行了大量投資。例如,Meta 及其執行長馬克祖克柏已集體捐款數億向美國 100 多所學院和大學提供資金。

這與大型菸草公司曾經的做法類似。

1950年代中期,捲菸公司發起了協調一致的活動對越來越多的證據提出質疑,這些證據將吸煙與癌症等許多嚴重的健康問題聯繫起來。這並不是要明確地偽造或操縱研究,而是選擇性地資助研究並引起人們對不確定結果的關注。

這有助於形成這樣一種敘述:沒有確切的證據吸煙會導致癌症。反過來,這使菸草公司能夠保持責任感和「善意」的公眾形象進入1990年代

積極的旋轉

Meta 資助的研究發表於科學2023年聲稱Facebook的新聞提要演算法減少了用戶接觸不可信新聞內容的機會。作者表示“Meta 無權獲得出版前批准”,但也承認Facebook 的開放研究和透明度團隊“為執行整個專案提供了大力支持。”

該研究使用了參與者(Facebook 用戶)被隨機分配到對照組或治療組。

繼續使用 Facebook 的演算法動態消息,而治療群組則收到按時間倒序排列內容的動態消息。該研究試圖比較這兩種類型的新聞源對用戶接觸來自不可信新聞來源的潛在虛假和誤導性資訊的影響。

實驗非常穩健且設計良好。但在進行的短時間內,Meta 改變了其新聞推送演算法,以增加更可靠的新聞內容。這樣做,它改變了實驗的控制條件。

原始研究中報告的錯誤訊息的減少可能是由於演算法的變化。但這些變化是暫時的:幾個月後的 2021 年 3 月,Meta 將新聞推送演算法恢復為原來的演算法。

在一份聲明中科學關於這場爭議,Meta 表示,它向當時的研究人員明確了這些變化,並且支持克萊格對論文中的發現的陳述。

前所未有的力量

該研究淡化了演算法內容管理在錯誤訊息和政治兩極化等問題上的作用,成為人們對社群媒體演算法有害影響產生懷疑和不確定性的燈塔。

需要明確的是,我並不是說進行 2023 年原始研究的研究人員誤導了公眾。真正的問題是社交媒體公司不僅控制研究人員對數據的訪問,而且還可以以影響其資助的研究結果的方式操縱他們的系統。

更重要的是,社群媒體公司有能力在研究所在的平台上推廣某些研究。反過來,這有助於塑造公眾輿論。它可以創造一種場景,讓對演算法影響的懷疑和質疑變得常態化,或者人們開始不理睬。

這種力量是前所未有的。即使是大型菸草公司也無法如此直接地控制大眾對自己的看法。

所有這些都強調了為什麼應該要求平台提供大規模資料存取和有關其演算法系統變化的即時更新。

當平台控制對「產品」的存取時,它們也控制了有關其影響的科學。最終,這些自研資助模式使平台能夠將利潤置於人們之上,並轉移人們對提高透明度和獨立監督的注意力。

本文轉載自對話根據知識共享許可。閱讀原創文章The Conversation

引文:大型科技正在危害社會嗎?為了找到答案,我們需要研究,但它正在被大型科技本身操縱(2024 年,10 月 4 日)檢索日期:2024 年 10 月 4 日來自 https://techxplore.com/news/2024-10-big-tech-society.html

本文檔受版權保護。除了出於私人學習或研究目的的任何公平交易外,不得未經書面許可,不得複製部分內容。所提供的內容僅供參考。