Global powers are grappling with 'responsible' use of military AI. What would that look like?
图片来源:空军技术公司。中士。泰瑞·艾歇尔

上周,来自世界各地的约 2,000 名政府官员和专家齐聚一堂,雷伊姆(军事领域的负责任的人工智能)峰会在韩国首尔举行。这是第二届此类活动,第一届于 2023 年 2 月在荷兰举行。

今年期间,61个国家签署了“行动蓝图”用于管理军队人工智能(AI)的开发和使用。

然而,30个国家派出政府代表出席峰会,但没有认可该蓝图,包括中国

该蓝图是一项重要的发展,尽管规模不大。但对于什么是负责任地使用人工智能以及如何将其转化为军事领域的具体行动,人们的理解仍然存在差距。

人工智能目前如何应用于军事领域?

过去几年,人工智能的军事使用有所增加,特别是在俄罗斯-乌克兰和以色列-巴勒斯坦冲突中。

以色列使用了名为“福音”和“薰衣草”的人工智能系统来帮助其做出关键的军事决策,例如用炸弹瞄准哪些地点和人员。系统使用大量数据,包括人们的地址、电话号码和聊天组成员资格

今年早些时候,当批评者质疑其有效性和合法性时,“薰衣草”系统尤其成为头条新闻。人们特别关注其培训数据和它如何对目标进行分类

俄罗斯和乌克兰也利用人工智能支持军事决策。卫星图像、社交媒体内容和无人机监视只是产生大量数据的众多信息源中的一部分。

人工智能可以比人类更快地分析这些数据。结果被纳入现有的“杀伤链”中 –定位、跟踪、瞄准和攻击目标的过程

这意味着可以在激烈的武装冲突期间做出更快的决策,提供战术优势。然而,人工智能系统的滥用也可能导致潜在的危害。

民间社会和红十字国际委员会等非政府组织已就这些风险发出警告。例如,算法偏差可以加剧平民面临的风险在积极的战争期间。

什么是军事领域的负责任人工智能?

对于什么是“负责任的”人工智能,目前还没有达成共识。

一些研究人员认为技术本身可以负责。在这种情况下,“负责任”意味着具有内在的公平性和没有偏见。

其他研究参考围绕人工智能的实践——比如设计、开发和使用——负责。这些意味着合法、可追踪、可靠且注重减少偏见的做法。

最近在首尔峰会上批准的蓝图与后一种解释是一致的。它主张任何在军队中使用人工智能的人都必须遵守相关的国家和国际法律。

还凸显了人类角色的重要性人工智能在军事领域的开发、部署和使用。这包括确保人的判断和对武力使用的控制得到负责任和安全的管理。

这是一个重要的区别,因为许多有关人工智能的叙述错误地暗示了人类的参与和责任的缺乏。

政府可以采取哪些措施来负责任地使用军事人工智能?

峰会上的讨论主要集中在政府可以采取的支持负责任地使用军事人工智能的具体步骤。

随着军事人工智能的使用目前不断增加,我们需要采取临时措施来应对。一项建议是在不同地区达成人工智能监管协议,而不是花费更长的时间来达成全球普遍共识。

改善在军事人工智能方面,我们还可以吸取以往全球挑战的经验教训,例如核不扩散、拯救臭氧层以及保持外层空间和南极洲非军事化。

自去年首次峰会以来十八个月,各国政府和其他责任方已开始落实风险缓解流程和军事人工智能工具包

该蓝图反映了自那时以来的进展以及峰会上讨论的想法。它提出了一些切实可行的步骤,其中包括:

  • 对人工智能军事能力的普遍法律审查
  • 促进对话,制定措施,确保国家、区域和国际各级军事领域负责任的人工智能
  • 保持人类适当参与军事领域人工智能的开发、部署和使用。

然而,进展缓慢,因为我们仍然没有对负责任的军事人工智能实际上是什么样子有一个普遍的理解。

解决这些问题的需要现在给下一次峰会(尚未宣布)带来压力。荷兰也有成立专家机构进一步推进全球一致的军事人工智能方法。

人类可以从人工智能工具中受益。但我们迫切需要确保它们带来的风险不会扩散,尤其是在军事领域。

本文转载自对话根据知识共享许可。阅读原创文章The Conversation

引文:全球大国正在努力解决军事人工智能的“负责任”使用问题。那会是什么样子?(2024 年 9 月 17 日)检索日期:2024 年 9 月 17 日来自 https://techxplore.com/news/2024-09-global-powers-grappling-responsible-military.html

本文档受版权保护。除了出于私人学习或研究目的的任何公平交易外,不得未经书面许可,不得复制部分内容。所提供的内容仅供参考。