上週,來自世界各地的約 2,000 名政府官員和專家齊聚一堂,雷伊姆(軍事領域的負責任的人工智慧)高峰會在韓國首爾舉行。這是第二屆此類活動,第一屆於 2023 年 2 月在荷蘭舉行。
今年期間首腦,61個國家簽署了“行動藍圖”用於管理軍隊人工智慧(AI)的開發和使用。
然而,30個國家派出政府代表出席高峰會,但沒有認可該藍圖,包括中國。
該藍圖是一項重要的發展,儘管規模不大。但對於什麼是負責任地使用人工智慧以及如何將其轉化為軍事領域的具體行動,人們的理解仍然存在差距。
人工智慧目前如何應用於軍事領域?
過去幾年,人工智慧的軍事使用增加,特別是在俄羅斯-烏克蘭和以色列-巴勒斯坦衝突中。
以色列使用了名為「福音」和「薰衣草」的人工智慧系統來幫助其做出關鍵的軍事決策,例如用炸彈瞄準哪些地點和人員。系統使用大量數據,包括人們的地址、電話號碼和聊天群組成員資格。
今年早些時候,當批評者質疑其有效性和合法性時,「薰衣草」系統尤其成為頭條新聞。人們特別關注其培訓數據和它如何對目標進行分類。
俄羅斯和烏克蘭也利用人工智慧支援軍事決策。衛星影像、社群媒體內容和無人機監視只是產生大量資料的眾多資訊來源的一部分。
人工智慧可以比人類更快分析這些數據。結果被納入現有的「殺傷鏈」 –定位、追蹤、瞄準和攻擊目標的過程。
這意味著軍官員可以在激烈的武裝衝突期間做出更快的決策,提供戰術優勢。然而,人工智慧系統的濫用也可能導致潛在的危害。
民間社會和紅十字國際委員會等非政府組織已就這些風險發出警告。例如,演算法偏差可以加劇平民面臨的風險在積極的戰爭期間。
什麼是軍事領域的負責任人工智慧?
對於什麼是「負責任的」人工智慧,目前還沒有共識。
一些研究人員認為技術本身可以負責。在這種情況下,「負責任」意味著具有內在的公平性和沒有偏見。
其他研究參考圍繞人工智慧的實踐——例如設計、開發和使用——負責。這些意味著合法、可追蹤、可靠且注重減少偏見的做法。
最近在首爾峰會上批准的藍圖與後一種解釋是一致的。它主張任何在軍隊中使用人工智慧的人都必須遵守相關的國家和國際法律。
還凸顯了人類角色的重要性人工智慧在軍事領域的開發、部署和使用。這包括確保人的判斷和對武力使用的控制得到負責任和安全的管理。
這是一個重要的區別,因為許多有關人工智慧的敘述錯誤地暗示了人類的參與和責任的缺乏。
政府可以採取哪些措施來負責任地使用軍事人工智慧?
高峰會的討論主要集中在政府可以採取的支持負責任地使用軍事人工智慧的具體步驟。
隨著軍事人工智慧的使用目前不斷增加,我們需要採取臨時措施來應對。一項建議是在不同地區達成人工智慧監管協議,而不是花費更長的時間來達成全球普遍共識。
改善全球合作在軍事人工智慧方面,我們還可以吸取以往全球挑戰的經驗教訓,例如核不擴散、拯救臭氧層以及保持外層空間和南極洲非軍事化。
自去年首次高峰會以來十八個月,各國政府和其他責任方已開始落實風險緩解流程和軍事人工智慧工具包。
這張藍圖反映了自那時以來的進展以及峰會上討論的想法。它提出了一些切實可行的步驟,其中包括:
- 對人工智慧軍事能力的普遍法律審查
- 促進對話,制定措施,確保國家、區域和國際各級軍事領域負責任的人工智慧
- 保持人類適當參與軍事領域人工智慧的開發、部署和使用。
然而,進展緩慢,因為我們仍然沒有對負責任的軍事人工智慧實際上是什麼樣子有一個普遍的理解。
解決這些問題的需要現在給下一次峰會(尚未宣布)帶來壓力。荷蘭也有成立專家機構進一步推進全球一致的軍事人工智慧方法。
人類可以從人工智慧工具中受益。但我們迫切需要確保它們帶來的風險不會擴散,尤其是在軍事領域。
引文:全球大國正在努力解決軍事人工智慧的「負責任」使用問題。那會是什麼樣子呢?(2024 年 9 月 17 日)檢索日期:2024 年 9 月 17 日來自 https://techxplore.com/news/2024-09-global-powers-grappling-responsible-military.html
本文檔受版權保護。除了出於私人學習或研究目的的任何公平交易外,不得未經書面許可,不得複製部分內容。所提供的內容僅供參考。