algorithm
圖片來源:Pixabay/CC0 公共領域

ChatGPT 和其他基於機器學習的解決方案正在風起雲湧。但即使是最成功的演算法也有其限制。哥本哈根大學的研究人員已經從數學上證明,除了簡單的問題之外,不可能為人工智慧創建始終穩定的演算法。研究,發佈到arXiv預印本伺服器可能會帶來如何更好地測試演算法的指南,並提醒我們機器畢竟不具備人類智慧。

他們翻譯機器比醫生更準確地解釋醫學掃描影像,並且可能很快就能比人類更安全地駕駛汽車。然而,即使是最好的演算法也有弱點。哥本哈根大學計算機科學系的研究小組試圖揭示它們。

以自動駕駛汽車讀取路標為例。如果有人在標誌上貼了貼紙,這不會分散人類駕駛員的注意力。但機器很容易被推遲,因為現在的標誌與它訓練時使用的標誌不同。

「我們希望演算法在某種意義上是穩定的,即如果輸入稍微改變,輸出將保持幾乎相同。現實生活中涉及人類習慣於忽略的各種噪音,而可能會感到困惑,」該小組負責人 Amir Yehudayoff 教授說。

一種討論弱點的語言

「我想指出的是,我們還沒有直接研究自動汽車應用。不過,這似乎是一個過於複雜的問題,演算法無法始終保持穩定,」耶胡達奧夫說,他補充說,這並不一定意味著對開發產生重大影響自動駕駛汽車。「如果演算法但如果在很多情況下都這樣做,那就是壞消息了。

該科學文章不能被業界應用來識別其演算法中的錯誤。教授解釋說,這不是本意。「我們正在開發一種語言來討論演算法.這可能會導致制定描述如何測試演算法的指南。從長遠來看,這可能會再次導致更好、更穩定演算法的開發。

從直覺到數學

一個可能的應用是測試保護數位隱私的演算法。

「有些公司可能聲稱已經開發出絕對安全的隱私保護解決方案。首先,我們的方法可能有助於確定解決方案不可能絕對安全。其次,它將能夠找出弱點,」Yehudayoff 說。

不過,首先也是最重要的是,科學文章對理論做出了貢獻。他補充道,尤其是數學內容具有開創性,

「我們直觀地理解,一個穩定的演算法在暴露於少量輸入噪音時應該幾乎和以前一樣工作。就像上面貼著貼紙的路標一樣。但作為理論計算機科學家,我們需要一個堅定的定義。我們必須能夠用數學語言準確地描述該演算法必須能夠承受多少噪聲,以及如果我們要接受該演算法是穩定的,那麼輸出應該與原始輸出有多接近?

記住限制很重要

這篇科學文章引起了理論計算機科學界同事的極大興趣,但科技業卻沒有。至少現在還沒有。

Yehudayoff 表示:“新的理論發展和應用人員的興趣之間總是會有一些延遲。”“一些理論的發展將永遠不會被注意到。”

然而,他並不認為這種情況會發生:

「機器學習繼續快速發展,重要的是要記住,即使是在領域非常成功的解決方案仍然有局限性。機器有時看似能夠思考,但畢竟它們不具備。記住這一點很重要。

更多資訊:Zachary Chase 等人,學習的可重複性和穩定性,arXiv(2023)。DOI:10.48550/arxiv.2304.03757

期刊資訊: arXiv

引文:研究指出人工智慧的弱點(2024 年,1 月 11 日)檢索日期:2024 年 1 月 11 日取自 https://techxplore.com/news/2024-01-weaknesses-ai.html

本文檔受版權保護。除了出於私人學習或研究目的的任何公平交易外,不得未經書面許可,不得複製部分內容。所提供的內容僅供參考。