ai
圖片來源:CC0 公共領域

對產生人工智慧技術的擔憂似乎正在成長幾乎與技術本身的傳播速度一樣快。這些擔憂的根源是對虛假信息可能以前所未有的規模傳播的不安,以及對失業、失去對創意作品的控制的擔憂,以及對未來人工智能變得如此強大以至於導致人類滅絕的擔憂。

這些擔憂引發了對人工智慧技術進行監管的呼聲。例如,一些政府歐盟,已經對其公民推動監管做出了回應,而英國和印度等一些國家則採取了更加自由放任的態度。

在美國,白宮於 2023 年 10 月 30 日發布了一項名為「安全、可靠且值得信賴的人工智慧」的行政命令。它制定了減少人工智慧技術的直接和長期風險的指導方針。例如,它要求人工智慧供應商與政府分享安全測試結果。並呼籲國會在人工智慧技術吸收盡可能多的數據的情況下頒布消費者隱私立法。

鑑於監管人工智慧的動力,重要的是要考慮哪些監管方法是可行的。這個問題有兩個面向:什麼是當今技術上可行的、什麼是經濟上可行的。同時查看這兩個方面也很重要它進入人工智慧模型和模型的輸出。

1.尊重版權

監管人工智慧的一種方法是將培訓資料限制為公共領域材料和人工智慧公司已獲得使用許可的受版權保護的材料。人工智慧公司可以精確決定使用哪些數據樣本進行培訓,並且只能使用允許的材料。這在技術上是可行的。

這在經濟上是部分可行的。人工智慧產生的內容的品質取決於訓練資料的數量和豐富程度。因此,對於人工智慧供應商來說,不必將自己限制在已獲得使用許可的內容上,這在經濟上是有利的。然而,如今一些生成人工智慧公司宣稱,他們只使用他們有權使用的內容,這是一項可銷售的功能。Adobe 就是一個例子螢火蟲影像產生器

拜登政府關於人工智慧的行政命令設定了一些關鍵標準,但監管人工智慧的大部分工作落在國會和各州身上。

2. 將輸出歸因於訓練資料創建者

將人工智慧技術的產出歸因於特定的創作者(藝術家、歌手、作家等)或創作者群體,以便他們獲得補償,是調節生成式人工智慧的另一種潛在手段。然而,所使用的人工智慧演算法的複雜性使得無法說出輸出是基於哪些輸入樣本。即使這是可能的,也無法確定每個輸入樣本對輸出的貢獻程度。

歸屬是一個重要議題,因為它可能決定創作者或其創作的授權持有者是否會接受或反對人工智慧技術。好萊塢編劇罷工148天他們最終贏得的讓步人工智慧的保護展示了這個問題。

在我看來,這種處於人工智慧輸出端的監管,在技術上是不可行的。

3. 區分人類生成的內容和人工智慧產生的內容

人工智慧技術的一個直接擔憂是它們會引發自動產生的假資訊活動。這種情況已經在不同程度上發生了——例如,烏克蘭-俄羅斯戰爭期間的假訊息活動。這是民主的一個重要議題,民主依賴大眾透過可靠的新聞來源來了解情況。

創業領域有許多活動旨在開發能夠區分人工智慧產生的內容和人類生成的內容的技術,但到目前為止,這項技術還處於起步階段。落後於生成式人工智慧技術。目前的方法著重於識別生成人工智慧的模式,這幾乎從定義上來說是一場失敗的戰鬥。

區分人工智慧產生的內容和人類生成的內容的風險很高。

這種同樣位於輸出端的監管人工智慧的方法目前在技術上還不可行,儘管這方面可能會取得快速進展。

4. 將產出歸因於人工智慧公司

可以將人工智慧產生的內容歸因於特定人工智慧供應商的技術。這可以透過眾所周知且成熟的技術來完成加密簽名。人工智慧供應商可以對他們系統的所有輸出進行加密簽名,任何人都可以驗證這些簽名。

這項技術已經嵌入到基本的運算基礎設施中,例如,當網頁瀏覽器驗證您正在連接的網站時。因此,人工智慧公司可以輕鬆部署它。是否值得依賴少數大型、成熟且簽名可驗證的供應商的人工智慧生成內容,這是一個不同的問題。

所以這種形式的監管在技術上和經濟上都是可行的。該規定是針對AI工具輸出端的。

對於政策制定者來說,了解每種監管形式可能的成本和收益非常重要。但首先他們需要了解其中哪些在技術和經濟上是可行的。

本文轉載自對話根據知識共享許可。閱讀原創文章The Conversation

引文:控制人工智慧意味著弄清楚哪些監管方案在技術上和經濟上都是可行的(2024 年,1 月 18 日)檢索日期:2024 年 1 月 18 日來自 https://techxplore.com/news/2024-01-reining-ai-figuring-options-feasible.html

本文檔受版權保護。除了出於私人學習或研究目的的任何公平交易外,不得未經書面許可,不得複製部分內容。所提供的內容僅供參考。