Insider Q&A: Trust and safety exec talks about AI and content moderation
圖片來源:美聯社插畫/Jenni Sohn

Alex Popken 在 2023 年離職前曾長期擔任 Twitter 的信任與安全主管,專注於內容審核。

現在,她是 WebPurify 的信任和安全副總裁,WebPurify 是一家內容審核服務供應商,與企業合作,幫助確保人們在其網站上發布的內容遵守規則。

社群媒體平台並不是唯一需要監管的平台。任何面向消費者的公司(從零售商到約會應用程式再到新聞網站)都需要有人清除不需要的內容,無論是仇恨言論、騷擾或任何非法內容。企業越來越多使用在他們的努力中,但波普肯指出,人類對於這個過程仍然至關重要。

波普肯最近接受了美聯社的採訪。為了清晰和長度,對話已編輯。

Q:在您任職 Twitter 的十年裡,您如何看待內容審核的變化?

答:當我加入 Twitter 時,內容審核還處於初級階段。我認為,甚至信任和安全也是人們剛開始理解和應對的概念。隨著平台看到它們以新的方式武器化,對內容審核的需求不斷升級。我還記得我在 Twitter 任職期間的一些重要里程碑。例如,2016年俄羅斯對美國的干涉。,我們第一次意識到,以有意義的方式意識到,如果沒有內容審核,我們可能會有壞人破壞民主。投資這一領域的必要性變得越來越重要。

Q:很多公司,大型社群媒體公司都依賴人工智慧來進行內容審核。您認為人工智慧已經到了可以依賴的地步了嗎?

答:有效的內容審核是人和機器的結合。多年來一直適度使用的人工智慧解決了規模問題。因此,您擁有根據不同策略進行訓練並可以偵測內容的機器學習模型。但最終,假設您有一個機器學習模型正在檢測「納粹」一詞。有很多帖子可能會批評納粹或提供有關納粹與白人至上之類的教育材料。因此它無法解決細微差別和上下文。這確實是人類層發揮作用的地方。

我確實認為我們開始看到真正重要的進步,這些進步將使人類的工作變得更輕鬆。我認為生成式人工智慧就是一個很好的例子,它與傳統的不同。人工智慧模型,它比它的前身更能理解上下文和細微差別。但即便如此,我們的人類調節者現在圍繞著調節生成式人工智慧輸出擁有全新的用例。因此,我認為,在可預見的未來,對人類節制的需求仍然存在。

Q:您能談談與您合作的非社群媒體公司以及他們使用什麼樣的內容審核嗎?

答:我的意思是,零售產品定制等一切,你知道,想像一下你允許人們定制 T 卹,對嗎?顯然,您希望避免人們濫用這一點並將有害的、可憎的東西放在 T 恤上的用例。

確實,任何具有用戶生成內容的內容,一直到– 在那裡,您要尋找諸如釣魚和詐騙之類的內容,並確保人們的真實身份,並防止人們上傳不適當的照片。它確實跨越多個行業。

Q:您正在主持的問題怎麼樣,這種情況有改變嗎?

答:內容審核是一個不斷發展的領域。它受到世界上正在發生的事情的影響。它受到新技術和不斷發展的技術的影響。它受到不良行為者的影響,他們試圖以新的和創新的方式進入這些平台。因此,作為內容審核團隊,您要努力保持領先並預測新的風險。

我認為這個角色有一點災難性的想法,你會想到這裡可能發生的最壞情況是什麼。當然,它們也在不斷進化。我認為錯誤訊息是一個很好的例子,錯誤訊息有很多方面,而且很難調節。就像沸騰的海洋一樣。我的意思是,你無法核實某人所說的每件事,對嗎?因此,平台通常需要關注錯誤訊息,以免造成最現實的傷害。而且這也一直在發展。

Q:就生成式人工智慧而言,有一些世界末日的想法,認為它將毀掉互聯網,你知道,它只是上面的假人工智慧東西。你覺得這可能會發生嗎?

答:我對人工智慧產生的錯誤訊息感到擔憂,尤其是在全球極為重要的選舉季節。你知道,我們在網路上積極看到更多的深度偽造品以及有害的合成和操縱媒體,這令人擔憂,因為我認為普通人可能很難過。辨別準確與否。

我認為從中長期來看,如果我能夠受到適當的監管,並且周圍有適當的護欄,我也認為它可以為我們的信任和安全從業者創造機會。我願意。想像一下這樣一個世界:人工智慧是內容審核工具帶中的重要工具,適用於威脅情報等。你知道,我認為這將是一個非常有用的工具,但它也會被濫用。我們已經看到了這一點。

© 2024 美聯社。版權所有。未經許可,不得出版、廣播、重寫或重新散佈本資料。

引文:內部問答:信任和安全主管談論人工智慧和內容審核(2024 年,4 月 23 日)檢索日期:2024 年 4 月 23 日來自 https://techxplore.com/news/2024-04-insider-qa-safety-exec-ai.html

本文檔受版權保護。除了出於私人學習或研究目的的任何公平交易外,不得未經書面許可,不得複製部分內容。所提供的內容僅供參考。