在军事威胁快速演变和作战环境日益复杂的时代,将人工智能融入军事行动被证明具有显著优势。与此同时,这也意味着以有效且合乎道德的方式构建和部署人机组队系统面临着各种挑战与风险。目前,理解和应对这些挑战通常是从外部视角着手,将人机组队系统视为一个集体智能体。然而,深入探究系统内部所涉及的动态关系,则能确保处理更广泛的相关多维责任、安全性和鲁棒性方面的问题。为此,本研究提出为军事行动中的人机组队设计一个可信的共同学习模型,该模型包含人类与人工智能智能体在共同适应不断变化的战场条件时进行的持续、双向的见解交流。它通过整合四个维度来实现这一点。第一,可调自治,用于根据任务状态、系统置信度和环境不确定性等方面动态校准智能体的自治水平。第二,多层控制,涵盖持续监督、活动监控和问责。第三,双向反馈,在智能体之间建立显性和隐性的反馈循环,以确保能恰当地交流各自的推理、不确定性以及习得的适应性。第四,协同决策,即生成、评估和提出与置信度水平及相关原理相关的决策。所提出的模型辅以具体的示例和建议,有助于在军事行动中进一步开发负责任且可信赖的人机组队系统。

关键词:人机组队,负责任的人工智能,可信赖的人工智能,共同学习,军事行动。

现代防务组织面临着加速发展的威胁以及将网络、电磁和动能行动以前所未有的流动性融合在一起的对手[1], [2]。面对此类威胁,人工智能赋能系统如今驱动着传感器融合、威胁分类和行动方案生成等应用[3],在节奏、精度以及韧性方面均获得增益。然而,在未采取专门负责任措施的情况下,将人工智能模型构建并部署到指挥与控制链中,可能引入各种新的故障或故意敏感节点,例如模型脆弱、推理不透明、信任校准失误和问责空白,从而危及对武装冲突法的遵守[4]。因此,人机组队需要一种设计范式,不将这对智能体视为一个单一的超級智能体,而是视为一个动态的社会技术系统,其内部反馈、工作负荷转移和权限移交 critically 影响着作战效能及法律与伦理合规性[5], [6]。具体而言,人机组队代表了人类与人工智能智能体之间的伙伴关系,其中结合了他们的互补优势以实现共同目标[7], [8],同时将伦理判断、适应性和创造力等人类特质与人工智能在数据处理、模式识别和自动化方面的能力相结合[9], [10]。人机组队环境中的核心角色包括动态协调、相互适应以及共享心智模型的发展,其中智能体队友是独特的团队成员,会根据特定背景下不断变化的任务和活动调整自身行为。

人机组队系统构建于诸如癌症检测等应用中,放射科医生与人工智能智能体协同工作,以确保和提高诊断的准确性与效率[11]。在创意领域,数字艺术家利用人工智能工具生成新颖的设计概念并简化创作流程[12]。在制造业,工人与协作机器人组成团队以优化生产工作流程并提升安全性[13]。

与此同时,在军事领域,人类操作员与人工智能驱动的决策支持系统共同分析战场数据以提供战术决策信息,而配备人工智能的无人驾驶飞行器与人类指挥官协作执行监视、侦察和协调的任务规划[14], [15], [16]。人类智能体与人工智能智能体之间的学习成分是有效人机组队的支柱,尤其是在军事等关键领域,因为此功能使得智能体能够持续相互学习并调整其行为,这对于在快速变化和不可预测的情况下保持作战效能、安全和任务成功至关重要[17]。共同学习过程促进了共享心智模型、相互信任和校准依赖的发展,确保双方智能体不仅理解任务环境,而且理解彼此的能力、局限性和决策模式[18]。这种动态适应通过联合训练演习、实时反馈循环以及将人类经验知识与人工智能数据驱动的见解相结合等机制实现。尽管对人机组队的兴趣日益增长,但在科学文献和从业者的努力中,关于明确捕捉和表示人类与人工智能智能体之间共同学习过程的模型仍存在知识空白。因此,本研究旨在开发一个模型,以捕捉和表示人机团队中共同学习的关键要素,并特别关注军事行动。通过弥补这一空白,所提出的模型旨在增进对如何执行人类与人工智能智能体之间的持续学习和适应以提升团队绩效、信任校准和任务成功的理解。为此,该模型采用设计科学研究方法论[20],运用系统动力学机制[19]进行开发。

该模型嵌入了四个特性,即动态自治校准、多层监督、双向解释交换和置信度评分的协同决策,以确保人工智能不被视为替代品,而是作为一个自适应的队友,其能力、置信度和约束在与人类对应方共同规划、执行和评估军事行动时不断演进。具体而言,动态自治校准确保人工智能智能体的自治水平能够根据不断变化的任务要求和人类智能体的偏好持续调整,从而支持灵活且对情境敏感的组队。此外,多层监督使得人类和人工智能智能体能够在不同层级上监控、指导并干预彼此的行动,促进透明度、问责制和操作安全。同时,双向解释交换通过使双方智能体能够阐明其推理和意图来促进相互理解,这些方面对于在智能体之间及团队层面建立信任和共享态势感知至关重要。最后,协同决策将人类和人工智能智能体的置信度评估整合到联合决策中,增强了透明度,并降低了过度依赖或过低依赖人工智能智能体所提建议的风险。为此,该模型在一个围绕军事行动中相称性评估的执行而进行和实施的使用案例上进行了演示评估。基于所获得的结果,该模型在此情境下被证明是有效的,并为进一步理解和增强该领域的人机组队工作和系统提供了建模与仿真基础。

本文提纲结构如下。第2节讨论了相关的研究。第3节介绍了本研究所遵循的研究方法论。第4节阐述了所提出的系统动力学模型的设计。第5节讨论了仿真设置与获得的结果。第6节给出了结论性评述和未来的研究展望。

成为VIP会员查看完整内容
8

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
《武器系统中的人工智能》2023最新100页报告
专知会员服务
148+阅读 · 2023年12月13日
《在国防中实现负责任的人工智能》2023最新报告
专知会员服务
47+阅读 · 2023年2月22日
国家自然科学基金
12+阅读 · 2017年12月31日
国家自然科学基金
322+阅读 · 2017年12月31日
国家自然科学基金
8+阅读 · 2017年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
40+阅读 · 2014年12月31日
国家自然科学基金
47+阅读 · 2013年12月31日
Arxiv
171+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
484+阅读 · 2023年3月31日
Arxiv
175+阅读 · 2023年3月24日
Arxiv
25+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
12+阅读 · 2017年12月31日
国家自然科学基金
322+阅读 · 2017年12月31日
国家自然科学基金
8+阅读 · 2017年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
40+阅读 · 2014年12月31日
国家自然科学基金
47+阅读 · 2013年12月31日
微信扫码咨询专知VIP会员