人工智能是一项具有变革性和文明塑造意义的技术。其融入军事领域对武装冲突的进行方式,包括在人类活动最具影响的这一领域内如何决策和管理责任,具有深远影响。利害关系超越战场范畴,在国际和平与安全背景下引入了更高的风险。鉴于技术开发和部署的跨境性质,人工智能在军事领域带来的挑战需要协调的、多利益相关方的治理。本报告通过提供一个基础框架来回应此刻的紧迫性,以支持关注军事领域人工智能负责任治理的多元利益相关方之间进行知情的对话与互动。

本报告认识到,人工智能作为一类技术代表着一把双刃剑,由巨大的私营部门投资和军事需求共同驱动的快速创新,往往以牺牲安全和负责任的做法为代价。人工智能,特别是机器学习的进步,引发了一系列伦理、法律和操作上的关切。取决于具体模型和使用背景,人工智能可能挑战关于人类能动性、责任和问责的传统观念,从而在现有原则和规则如何适用方面造成不确定性。因此,只有有效应对相关风险,才能实现将人工智能融入军事领域所带来的潜在机遇。

在军事领域负责任地开发和使用人工智能需要知情人做出决策,并采用针对具体情境的方法来设计、测试和部署这些技术,以维护和平与人类尊严的价值观。因此,“全球召集负责任军事人工智能”(GC REAIM)倡导“设计保障责任”,即从开发的最早阶段,贯穿整个人工智能系统生命周期,以及在嵌入人工智能应用的社会技术机构(如军队)中,都将伦理和法律合规性纳入其中。军队及其他利益相关方应采用“设计保障责任”的原则与实践。为推进此目标,GC REAIM 旨在通过支持能力和容量建设来促进国家间的协作。GC REAIM 提出的建议旨在具备适应性,允许所有国家无论其各自起点和优先事项如何都能加以实施。

秉承 GC REAIM 对合乎伦理、合法且以人为本的治理的承诺,本报告为军事领域人工智能的负责任开发和使用提出了三项指导原则:

  1. 军事领域人工智能的开发和使用必须遵守国际法,并以广泛共享的伦理原则为指导,以最好地确保维护当代及后代人的生命与和平。

  2. 军事领域人工智能的开发和使用必须在整个系统生命周期内遵循系统化和结构化的设计、开发与测试流程。这些流程必须明确以保障人类能动性、责任和问责为导向。特别是,人工智能系统必须经过设计,使得所有关键决策的最终责任仍由人类操作员承担。

  3. 必须通过制度性实践来支持参与军事领域人工智能开发和使用的个人,使其能够行使知情的人机能动性。这需要持续的培训、能力建设,以及集成能够增强人类理解和有效监督的设计与测试特性。

这些指导原则通过以下五项针对参与整个人工智能生命周期的公共和私营利益相关方的核心建议得以具体实施:

  1. 将军事领域人工智能的负责任开发和使用锚定在相关且适用的伦理原则与国际法中。军事领域人工智能的负责任开发和使用取决于在系统生命周期内尽早并持续地整合伦理与法律考量。这需要详细阐释伦理和法律原则以界定人工智能的非法用途,制定技术、操作和组织指南,以及尊重并适用现有义务,例如使用武力的权利(开战正义)和在冲突中如何运用武力(交战正义)。

  2. 在法律约束力层面达成共识,授权使用核武器的决定应保留在人类控制之下。与几个核武器国家的政策和立场一致,关于使用核武器的关键决策必须明确保留在人类权力之下,因为这些决策需要道德、法律和战略考量。这些承诺应通过国家政策声明或国际协议来寻求。

  3. 实施国家政策,保证在整个人工智能系统生命周期中的人类责任,并且这些政策应明显建立在以人为本的培训和严格的测试、评估、验证与确认基础上。从军事能力的概念化到其退役,各国应实施自己的政策,确定关键干预点,并创造积极的激励措施,以鼓励公司和组织践行“设计保障责任”。此过程应符合现有的尽职调查义务。这包括建立伦理与法律评估、培训与教育、合规监控、测试、评估、验证与确认、风险评估等机制,并在国家层面实施时使用国际商定的最佳实践。

  4. 建立一个永久性、包容、多利益相关方和多边的对话机制,讨论如何负责任地将人工智能融入军事领域。关于军事领域负责任人工智能的全球对话应吸纳国家(包括军队)、业界和民间社会的参与。年度 REAIM 会议可作为此对话的基石,该对话可酌情发展成为一个在现有秘书处或联合国系统内拥有席位的机制。

  5. 建立一个关于军事领域人工智能的集中化、多利益相关方专家网络,以传播知识,促进能力与容量建设。该专家网络应作为一个专业的外部资源,由一个中心枢纽协调,支持各国和关键利益相关方主动识别国际、区域和国家人工智能政策之间的趋同领域。该网络与相关机构紧密协调,包括联合国独立人工智能科学小组和全球人工智能治理对话,以及上述对话机制,可贡献并维护可信的知识库,进行前瞻性扫描,并支持建立信任措施,有助于确保从高风险军事人工智能应用中汲取的经验教训能为人工智能治理框架提供信息。

GC REAIM 认识到,关于人类能动性的规范性问题无法抽象地回答。规范和原则必须转化为可操作的指南和标准。针对这些考量,上述五项核心建议构成了一套针对社会技术人工智能系统生命周期各层级负责任实践的具体建议的基础,包括组织设计考量,以及为国家、军队和业界提供的具体指导。这些建议借鉴并符合显著的外交进展,并利用了联合国框架内正在形成的机构,包括国际人工智能科学小组和全球人工智能治理对话。它们为利益相关方在国家、区域和国际层面实施上述建议提供了具体步骤。通过本报告,GC REAIM 提出了全球合作的模式,以培养对负责任使用人工智能系统的合理信任,为军事领域人工智能治理的制度化铺平道路。

本报告的结构反映了该问题领域的复杂性。每个部分都阐述了一个关键维度,共同构成整体分析,并形成连贯且可操作的解决方案的基础:

• 报告第2节阐述了人工智能与军事领域交汇处固有的复杂性和动态; • 第3节概述了在和平与安全、武装冲突行为以及武装冲突之外背景下,人工智能融入军事领域相关的风险与机遇; • 第4节提出了指导原则和核心建议,并以贯穿人工智能系统生命周期的一般性指导以及针对国家、军队和业界的具体指导形式进行阐述; • 第5节提供了政策与外交动态更新,关于 GC REAIM 研究结论的总体总结,并指出了后续步骤。

成为VIP会员查看完整内容
5

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
万字译文《海战中实施人工智能的挑战》2023最新报告
专知会员服务
197+阅读 · 2023年5月6日
《在国防中实现负责任的人工智能》2023最新报告
专知会员服务
47+阅读 · 2023年2月22日
白皮书 | 工业智能前沿报告,35页pdf
专知
31+阅读 · 2021年3月9日
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
40+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
Arxiv
171+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
484+阅读 · 2023年3月31日
Arxiv
79+阅读 · 2023年3月26日
Arxiv
175+阅读 · 2023年3月24日
Arxiv
25+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
40+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
微信扫码咨询专知VIP会员