AI's mysterious 'black box' may not be so black
「完全有可能獲得更準確的信息,而不僅僅是關於人工智慧系統中發生了什麼或出了問題的『預感』。CIU 有潛力為公司及其客戶、也為當局和公民提供巨大的機會, 」於默大學WASP 可解釋人工智慧教授Kary Framling 說。圖片來源:馬蒂亞斯‧佩特森

可解釋人工智慧的先驅之一開發了一種高級模型,可以解釋人工智慧的工作方式和原因。該模型打開了人工智慧神秘的“黑盒子”,幾乎適用於所有人工智慧系統。

「現在在理解和解釋人工智慧所做的決策方面對社會和產業有很大好處,型號和”,於默大學計算機科學系教授 Kary Framling 說。

政府、醫療保健、商業和工業都在使用人工智慧和機器學習。所謂的深度學習方法現在可以比人類更快診斷醫療保健中的患者。但是,是什麼讓人工智慧系統推薦一種治療而不是另一種,它是如何做出決定的呢?

「可解釋人工智慧是許多人感興趣的領域,但很少有人了解或完全理解。現有的解釋模型也不足以為大眾所理解,」可解釋人工智慧(XAI) 負責人弗朗姆林教授表示。

Främling 開發了 CIU 方法(上下文重要性和效用方法),並發現它比其他模型更有效。「不幸的是,許多科學家仍然保持著某種心態,而我很早就意識到這些模型太有限了。然而,在 90 年代末,時機不對,但我繼續開發 CIU 方法,今天我可以看到從長遠來看,這是一個有效的選擇。

獲得更具體的解釋

人工智慧系統是一種向人工智慧提供一個或多個輸入的系統或系統,然後處理資訊並產生一個或多個輸出。弗朗姆林利用他的博士學位。以法國為例。

他所居住的地區想要確定工業廢棄物最終儲存的最佳位置。使用機器學習和神經網路對數千個網站進行了分類,並根據幾個不同的類別做出了選擇。「但是決定網站好壞的標準是什麼?不幸的是,只有像我這樣的電腦科學家才能理解人工智慧系統的推理,」弗朗姆林說。

地點的選擇必須合理,必須兼顧人和環境。“你還必須用不同的方式來解釋它。居民想要一種信息,而環保部門需要另一種信息。”

就在那時,他對創造一種解釋方法產生了興趣。“對我來說,這是為了確保我們每個人都能理解醫院的決定、銀行對貸款申請的回應或當局的決定。”

他的 CIU 方法可讓您研究和解釋改變一個或多個輸入變數(例如「年齡」、「性別」、「工作」或「學習」)對最終結果的影響。「CIU 還允許您計算和解釋每個組件及其對結果的影響,並將輸入資料分解為子部分。這意味著您可以獲得更具體的解釋,例如,為什麼您沒有這樣做沒有得到貸款,或者為什麼你得到了貸款,」弗朗姆林說。

提供易於理解的解釋

使用神經網路的人工智慧系統,稱為人工智慧系統曾經被認為是無法解釋的。因此,創建了所謂的“代理模型”,試圖模仿實際人工智慧系統的操作並分析其所做的事情。可解釋的人工智慧仍然基於這個想法。然而,CIU 並未創建替代模型。相反,它根據輸出隨輸入變化的情況來分析人工智慧模型的功能。

弗朗姆林說:“這提供的信息可以轉化為我們人類可以用來證明我們的決定和行動合理性的可理解的解釋和概念。”

「完全有可能獲得更多,而不僅僅是對人工智慧系統中發生了什麼或出了什麼問題的「預感」。CIU 可以為公司及其客戶、政府機構和公民提供巨大的機會,」Främling 說。

CIU 以 Python 和 R 程式語言實現,其原始程式碼在 Github 上公開可用。CIU 還可以作為庫安裝,原則上可以與任何人工智慧系統整合。該模型甚至可以解釋不使用機器學習的「經典」人工智慧系統的結果。CIU 也可以應用於時間序列和語言模型,但這是正在進行的研究。

引文:AI神秘的「黑盒子」可能沒那麼黑 (2024年4月8日)檢索日期:2024 年 4 月 8 日取自 https://techxplore.com/news/2024-04-ai-mysterious-black.html

本文檔受版權保護。除了出於私人學習或研究目的的任何公平交易外,不得未經書面許可,不得複製部分內容。所提供的內容僅供參考。