OpenAI says ways to verify people consented to having their voices immitated by artificial intelligence and to automatically detect audio deep fakes involving prominent people should be built in widely deployed 'synthetic voice' tools
OpenAI 表示,應在廣泛部署的「合成語音」工具中建構驗證人們是否同意人工智慧模仿其聲音以及自動偵測涉及名人的音訊深度造假的方法。

OpenAI 週五透露了一款語音克隆工具,該工具計劃對其進行嚴格控制,直到採取適當的保護措施來阻止旨在欺騙聽眾的音訊偽造行為。

根據 OpenAI 部落格文章分享的該工具小規模測試結果,名為「語音引擎」的模型基本上可以根據 15 秒的音訊樣本複製某人的語音。

這家總部位於舊金山的公司表示:“我們認識到,生成類似於人們聲音的語音存在嚴重風險,這在選舉年尤其重要。”

「我們正在與來自政府、媒體、娛樂、教育、並確保我們在構建過程中納入他們的反饋。

假訊息研究人員擔心,由於廉價、易於使用且難以追蹤的語音克隆工具激增,在關鍵的選舉年,人工智慧驅動的應用程式會被濫用。

OpenAI 承認存在這些問題,並表示「由於合成語音濫用的可能性,它正在採取謹慎和知情的方式來進行更廣泛的發布」。

就在一位為前景渺茫的政治顧問工作幾個月後,這場謹慎的揭幕儀式才得以公佈。喬·拜登的民主黨競爭對手承認是冒充美國領導人的自動電話的幕後黑手。

這個由人工智慧產生的電話是明尼蘇達州國會議員迪恩·菲利普斯 (Dean Phillips) 特工的創意,其聲音聽起來像是拜登敦促人們不要在一月份的新罕布什爾州初選中投票。

這起事件引起了專家們的警惕,他們擔心 2024 年的白宮競選以及今年全球其他關鍵選舉中會出現大量由人工智慧驅動的深度造假虛假訊息。

OpenAI 表示,測試語音引擎的合作夥伴同意規則,包括要求任何使用該工具複製聲音的人明確且知情的同意。

該公司補充說,還必須讓觀眾清楚他們聽到的聲音是人工智慧生成的。

OpenAI 表示:“我們已經實施了一系列安全措施,包括添加浮水印來追蹤語音引擎生成的任何音訊的來源,以及主動監控其使用方式。”

© 2024 法新社

引文:OpenAI 推出語音克隆工具(2024 年 3 月 30 日)檢索日期:2024 年 3 月 30 日取自 https://techxplore.com/news/2024-03-openai-unveils-voice-cloning-tool.html

本文檔受版權保護。除了出於私人學習或研究目的的任何公平交易外,不得未經書面許可,不得複製部分內容。所提供的內容僅供參考。