How AI can help stop the spread of misinformation
如果一個人更快樂,那麼他們說的是真話,而且當我們誠實時,我們作為人類也會分享其他視覺、言語、聲音線索。演算法可以更好地揭示這些相關性。圖片來源:加州大學聖地牙哥分校。

加州大學聖地牙哥分校拉迪管理學院的最新研究表明,機器學習演算法在高風險策略互動中偵測謊言方面明顯優於人類判斷。

這項研究可能對錯誤訊息的傳播產生重大影響,因為可用於加強減少 YouTube、Tik-Tok 和 Instagram 等主要平台上的虛構內容的努力。

該研究將發表於管理科學並可作為工作文件,重點關注 2007 年至 2010 年播出的熱門英國電視節目《金球》中參與者辨別謊言的能力。

該研究的主要作者、加州大學聖地亞哥分校拉迪管理學院行為經濟學副教授瑪塔·塞拉-加西亞說:“我們發現,當一個人在欺騙時,會有一定的‘跡象’。”

“例如,如果某人更快樂,那麼他們就說實話,並且當我們誠實並說真話時,我們作為人類都會分享其他視覺、言語、聲音線索。演算法可以更好地揭示這些相關性。”

研究中使用的演算法取得了令人印象深刻的準確率,正確預測參賽者行為的率為 74%,而參與研究的 600 多人的準確率僅為 51% - 53%。

除了比較機器學習和人類檢測欺騙的能力之外,該研究還測試瞭如何利用演算法來幫助人們更好地區分說謊者和說真話的人。

在一項實驗中,兩組不同的研究參與者觀看了同一組「金球」劇集。一組在觀看影片之前通過機器學習對其進行了標記。這些標誌表明預測參賽者很可能在說謊。

另一組人觀看了同一視頻,觀看後,他們被告知算法將該視頻標記為欺騙。如果參與者在觀看影片之前收到標記訊息,他們更有可能相信機器學習的見解並更好地預測謊言。

「在採用演算法建議時,時機至關重要,」塞拉-加西亞說。「我們的研究結果表明,當演算法見解在早期呈現時,參與者更有可能依賴這些見解。。這對於 YouTube 和 TikTok 等線上平台尤其重要,它們可以使用演算法來標記潛在的欺騙性內容。

拉迪學院行為經濟學教授、合著者Uri Gneezy 補充道:「我們的研究表明,這些線上平台可以透過在用戶參與內容之前(而不是之後)提出演算法警告來提高其標記系統的有效性,這可能會導致錯誤訊息傳播得較慢。

其中一些社交媒體網站已經在使用演算法來檢測可疑內容,但在許多情況下,影片必須由用戶報告,然後由可以標記內容或將其刪除的工作人員進行調查。由於 TikTok 等科技公司的員工因調查而負擔過重,這些流程可能會被拖延。

作者總結:「我們的研究展示了科技如何增強人類決策,這也是當人工智慧發揮作用時人類如何與人工智慧互動的一個例子。我們希望這些發現能夠幫助組織和平台更好地設計和部署機器學習工具,特別是在準確決策至關重要的情況下。

引文:人工智慧如何幫助阻止錯誤訊息的傳播(2024 年 9 月 17 日)檢索日期:2024 年 9 月 17 日來自 https://techxplore.com/news/2024-09-ai-misinformation.html

本文檔受版權保護。除了出於私人學習或研究目的的任何公平交易外,不得未經書面許可,不得複製部分內容。所提供的內容僅供參考。