美国国家安全客户已开始应用大语言模型(含公众熟知的"商用现成"模型如ChatGPT企业版),且应用规模将持续扩大。然而近期研究表明,当处理地缘政治或战略场景时,这类模型常建议升级行动。本文提出两种简易非技术干预手段控制此倾向。通过将干预措施融入近期研究的兵棋推演设计,显著降低全流程升级风险。故限制大语言模型国家安全应用的呼吁为时尚早。美国政府当前及未来将持续运用大语言模型进行情景规划与行动方案建议。本研究不否定此类应用,而是承认其必然普及趋势,并提供可操作方案使其契合国家安全目标(含升级管控)。
公众对军事人工智能(AI)风险的关注多聚焦"作战管理"软件——即在战争中制定战术战役决策的系统。支持者主张其在未来高速复杂冲突中具决定性优势;反对者则认为移除"人在回路"机制可能危及平民或加剧升级态势[2,7,8,11,1]。尽管存疑,AI辅助战术战役决策已然实施。将AI应用于更高层级的国家安全问题——即政治与战略决策——正成为新前沿。基于大语言模型(LLM)的应用已着手研发,旨在协助高层官员开展情景规划与行动方案制定[4,5,14]。LLM作为特定AI类型,是由海量数据训练的巨型深度神经网络,通过处理自然语言查询生成文本响应。近期研究警示LLM在国家安全决策中可能存在升级倾向。本文测试两种简易非技术性用户干预手段,用于管理"商用现成"LLM(如公众可用的ChatGPT或Llama,通常作为政府客户企业版模型基准)的升级风险。研究发现这些干预显著降低近期研究识别的升级风险。若此类干预能大幅抑制模型升级倾向与输出变异,则警报程度或低于近期报告暗示。
LLM为战略决策提供巨大潜力:AI模型可吸纳处理远超人类能力的数据量(尤其非结构化数据),且不受人类偏见情绪干扰。其在兵棋推演中价值显著——规划人员可运行远超纯人力规模的模拟推演。未来LLM或通过文件汇总、对手行动预测及行动建议生成支撑政治战略决策[3,6]。例如美军欧洲司令部参谋可向LLM输入俄军近期调动数据,要求其生成作战司令的威慑选项。但AI参与此类决策可能比作战管理更具争议性——战略应用侵入需人类洞察力、共情力与创造力的领域(如解读对手意图、设计国家决心传递方式)。此外LLM的行为模式与局限可能破坏本就脆弱高风险的外交博弈信号传递:
近期研究揭示这些风险:Rivera等[12]在兵推中部署五种商用LLM,发现所有模型均易突发升级(含核升级)。每次模拟为八个代表不同国家特性的LLM"国家智能体"提供三种初始条件(中立/入侵/网络攻击)。在模拟14天危机中,智能体从27种预设选项(含谈判至冲突发起)互动作出响应。所有场景与模型均呈现初始升级态势,无模型在推演中降级,七种模型均呈军备竞赛倾向。升级决策无规律可循:GPT-4-Base模型升级倾向尤为显著——此为唯一未采用"强化人类反馈学习"(RLHF)的模型(该微调方法通过人类监督训练、输出质量评分及奖励期望行为实现)。Jensen等[9]对比七种LLM对400个地缘场景与6.6万问答对的响应。场景覆盖国际关系四领域:升级、干预、合作与联盟。模型在赋予国家身份(如美国或俄罗斯)后从预设响应中选择。研究发现模型输出及被分配角色身份间存在显著差异:例如Llama 3.1 8B Instruct升级倾向远高于Claude 3.5 Sonnet;当扮演美英两国时模型攻击性最强。