ChatGPT
圖片來源:Unsplash/CC0 公共領域

澳洲政府已發布自願性人工智慧 (AI) 安全標準,旁邊有一個提案文件呼籲對高風險情況下快速發展的技術的使用進行更嚴格的監管。

帶回家的信息聯邦工業和科學部長 Ed Husic 表示:

“我們需要更多的人使用人工智慧,為此我們需要建立信任。”

但為什麼人們需要相信這一點?究竟為什麼更多的人需要使用它?

人工智慧系統使用大多數人無法理解的高級數學,在難以理解的大數據集上進行訓練。他們產生的結果我們無法驗證。即使是最先進的旗艦系統也會產生充滿錯誤的輸出。

隨著時間的推移,ChatGPT 的準確度似乎越來越低。即使在最好的情況下無法告訴你什麼字母都在「草莓」這個詞裡。同時,Google的 Gemini 聊天機器人建議在披薩上塗膠水,以及其他滑稽的失敗。

鑑於這一切,公眾對人工智慧的不信任似乎完全合理。使用更多的理由似乎很站不住腳,而且還存在潛在危險。

人工智慧風險

已經做了很多工作人工智慧的“生存威脅”,以及它將如何導致失業。人工智慧帶來的危害有的很明顯,例如自動駕駛汽車撞到行人– 更微妙的,例如人工智慧招聘系統表現出對女性的偏見或人工智慧法律系統對有色人種有偏見的工具

其他危害包括深度偽造的詐欺行為同事和的親人

別介意聯邦政府最近的報告顯示人類比人工智慧更有效、更有效率和生產力。

但如果你只有一把錘子,一切看起來都像釘子。

技術的採用仍屬於這種熟悉的比喻。人工智慧並不總是完成工作的最佳工具。但當面對令人興奮的新技術時,我們經常使用它而不考慮是否應該使用它。

我們不應該鼓勵更多的人使用人工智慧,而應該了解什麼是好的,什麼是不好的。

是我們需要信任的科技還是政府?

澳洲政府到底從更多人使用人工智慧中得到了什麼?

最大的風險之一是洩漏私人數據。這些工具正在以前所未有的規模收集我們的私人資訊、我們的智慧財產權和我們的想法。

就 ChatGPT、Google Gemini、Otter.ai 和其他人工智慧模型而言,大部分數據並未在澳洲境內進行處理。

這些公司宣揚透明度、隱私和安全。但往往很難發現是否您的資料已被使用用於訓練他們的新模型,他們如何保護它,或其他組織或政府可以存取該資料。

最近,聯邦政府服務部長 Bill Shorten 提出了政府擬議的信託交換計劃,引發了人們對收集更多有關澳洲公民的數據。肖頓在國家新聞俱樂部的演講中公開指出了大型科技公司的支持,包括谷歌

如果要在包括人工智慧在內的不同技術平台上整理有關澳洲人的數據,我們可能會看到廣泛的大規模監視。

但更令人擔憂的是,我們觀察到科技影響政治和行為的力量。

自動化偏見這是我們用來描述使用者相信科技比他們「更聰明」的傾向的術語。對人工智慧的過度信任會給澳洲人帶來更大的風險——如果在沒有充分教育的情況下鼓勵更多地使用技術,我們可能會讓我們的人民受到全面的自動監視和控制系統的影響。

儘管你也許能夠逃脫這個系統,但它會破壞社會信任和凝聚力,並在人們不知情的情況下影響他們。

這些因素更有理由規範人工智慧的使用,正如澳洲政府現在正在尋求的那樣。但這樣做並不一定伴隨著強烈的鼓勵也使用它。

讓我們減少盲目炒作

人工智慧監管這個話題很重要。

國際標準化組織制定了一個標準人工智慧系統的使用與管理。它在澳洲的實施將導致人工智慧的更好、更合理和更規範的使用。

該標準和其他標準是政府提出的自願性人工智慧安全標準的基礎。

聯邦政府本周宣布的問題不是呼籲加強監管,而是盲目炒作人工智慧的使用。

讓我們專注於保護澳洲人,而不是強制他們需要使用,並且, 人工智慧.

本文轉載自對話根據知識共享許可。閱讀原創文章The Conversation

引文:澳洲政府表示更多人需要使用人工智慧:為什麼這可能是錯的(2024 年 9 月 7 日)檢索日期:2024 年 9 月 7 日取自 https://techxplore.com/news/2024-09-australian-people-ai-wrong.html

本文檔受版權保護。除了出於私人學習或研究目的的任何公平交易外,不得未經書面許可,不得複製部分內容。所提供的內容僅供參考。