作者:麗莎·M·吉文,

ai
圖片來源:CC0 公共領域

本週,聯邦工業和科學部長 Ed Husic 宣布了澳洲政府對此事件的回應。澳洲安全且負責任的人工智慧諮詢。

該回應針對了去年人工智慧 (AI) 諮詢的回饋。它收到了 500 多份意見書,指出人工智慧工具“對機會的興奮”,但也引起了對潛在風險的擔憂以及澳洲人對“防止傷害的監管保障措施”的期望。

而不是像《人工智慧監管法》那樣制定單一的人工智慧監管法歐盟已經做到了澳洲政府計劃將重點放在人工智慧實施的高風險領域——那些最有可能造成危害的領域。這可能包括工作場所、司法系統、監控或自動駕駛汽車中的歧視等例子。

政府還計劃成立一個臨時專家諮詢小組來支持這些護欄的發展。

我們如何定義「高風險」人工智慧?

雖然這種比例反應可能會受到一些人的歡迎,但僅透過臨時諮詢機構關注高風險領域會引發重大問題:

  • 如何定義高風險區域?
  • 當一些幹預措施(例如要求人工智慧產生的內容添加浮水印)可以廣泛打擊錯誤訊息時,低風險人工智慧應用是否應該面臨類似的監管?
  • 如果沒有常設顧問委員會,組織如何預測未來人工智慧新技術和人工智慧工具新應用的風險?

評估使用新技術的「風險」並不新鮮。我們有許多現有的原則、指南和法規,可以進行調整以解決對人工智慧工具的擔憂。

例如,澳洲的許多行業已經受到嚴格監管以解決安全問題,例如車輛醫療器材

在所有涉及人的研究中,澳洲研究人員必須遵守國家指導方針在哪裡實踐已明確定義:

  • 識別風險以及誰可能面臨傷害風險;
  • 評估風險的可能性、嚴重性和程度;
  • 考慮最小化、減輕和/或管理風險的策略;
  • 確定潛在的好處以及誰可能受益;和
  • 權衡風險並確定風險是否合理

這種風險評估是在研究進行之前進行的,並受到人類研究倫理委員會的嚴格審查和監督。類似的方法可用於人工智慧風險評估。

AI已經走進我們的生活

人工智慧監管的一個重大問題是,許多工具已經在澳洲的家庭和工作場所使用,但缺乏管理風險的監管護欄。

最近的 YouGov 報告發現90%的澳洲工人儘管存在嚴重的限制和缺陷,但仍使用人工智慧工具來完成日常任務。人工智慧工具可以「產生幻覺」並向使用者呈現虛假資訊。這缺乏透明度關於訓練資料引起了對偏見的擔憂侵害著作權

消費者和組織需要有關適當採用人工智慧工具來管理風險的指導,但許多用途超出了「高風險」領域。

定義“高風險”設定具有挑戰性。「風險」的概念有一定的範圍,但並不是絕對的。風險不是由本身,或使用它的設定。風險源自於造成潛在傷害的背景因素。

例如,雖然織針在日常生活中構成的風險很小,編織者被警告反對在飛機上攜帶金屬針。機場安全部門將這些視為「危險」工具,並限制其在這種情況下的使用,以防止造成傷害。

為了識別「高風險」設置,我們必須了解人工智慧工具的工作原理。了解人工智慧工具可以帶來招聘實踐中的性別歧視意味著所有組織都必須管理招募風險。不了解人工智慧的局限性,例如相信假判例法的美國律師由 ChatGPT 生成,強調了人工智慧工具使用中人為錯誤的風險。

個人和組織在使用人工智慧工具時帶來的風險必須與科技本身帶來的風險一起管理。

誰將為政府提供建議?

政府在回應中指出,人工智慧風險專家諮詢機構將需要「來自產業、學術界、民間社會和法律界的多元化成員和專業知識」。

在產業內,成員應包括各部門(例如醫療保健、銀行、執法),其中包括大型組織和中小企業的代表。

在學術界,成員不僅應包括人工智慧運算專家,還應包括在消費者和組織行為方面具有專業知識的社會科學家。他們可以就風險分析、道德以及人們在採用新技術時擔心的問題(包括錯誤訊息、信任和隱私問題)提供建議。

政府也必須決定如何管理未來潛在的人工智慧風險。常設諮詢機構可以管理未來技術和現有工具新用途的風險。

這樣的機構還可以就風險較低的人工智慧應用向消費者和工作場所提供建議,特別是在監管有限或沒有監管的情況下。

錯誤訊息是人工智慧工具限制已知的關鍵領域之一,要求人們具備強大的批判性思維和資訊素養技能。例如,要求人工智慧產生圖像的使用透明可以確保消費者不會被誤導。

然而,政府目前對透明度的關注僅限於「高風險」環境。這只是一個開始,但還需要更多建議和更多監管。

本文轉載自對話根據知識共享許可。閱讀原創文章The Conversation

引文:澳洲計劃監管「高風險」人工智慧。以下是如何成功做到這一點(2024 年 1 月 18 日)檢索日期:2024 年 1 月 18 日取自 https://techxplore.com/news/2024-01-australia-high-ai-successively.html

本文檔受版權保護。除了出於私人學習或研究目的的任何公平交易外,不得未經書面許可,不得複製部分內容。所提供的內容僅供參考。