问题——从“数据工具”走向“决策参谋”,生成式技术正加速嵌入军事决策链条。美国国防部近日推出GenAI.mil平台,试图在更严格的安全框架下引入包括谷歌“双子座”等商用能力,为国防系统提供文本生成、知识检索与辅助分析等服务。此外,有关应用已从实验室走向演训与任务支援:美军在兵棋推演中测试生成式系统“多诺万”,欧洲在飞行测试中推进机载“半人马座”智能体用于超视距作战环境下的自主机动与火控提示,以色列则据称使用“薰衣草”系统对多源情报进行整合分析并标注潜在目标。技术“上手快、出方案快”的特性,使其被视作提升指挥效率的重要抓手。 原因——一上,现代战争信息流密度高、决策周期短,指挥体系面临“数据过载”与“时效压力”的双重挤压;另一方面,生成式技术自然语言理解、模式归纳与多方案生成上具有明显优势,能够把分散信息转化为相对结构化的要点、选项和推演路径,从而降低人员资料搜集、对照比较和文字撰写上的时间成本。在北约“刺猬-25”军演中,“雅典娜”系统被用于快速形成多套作战方案,有案例显示可在约5分钟内生成10套备选方案,这种“批量生成”的能力对战场指挥与参谋流程具有直接吸引力。与此同时,平台化建设(如GenAI.mil)也反映出军方试图把技术使用纳入统一入口、统一权限与统一审计的治理逻辑,以减少散点试用带来的泄密与合规风险。 影响——效率提升的背后——风险同样被迅速放大——尤以“幻觉”与“黑箱效应”为突出。生成式技术往往基于既有语料、演训数据和规则假设形成输出,而演训条件与真实战场在对抗强度、信息完备性、欺骗干扰与突发性诸上存显著差异。当面对未知态势、对手新战法或信息不完整的情形,系统可能生成看似自洽、逻辑严密却缺乏证据支撑的结论。战场决策具有高压、快节奏特征,指挥员在时间紧迫与认知负荷高的情况下,更容易被“语言可信度”影响判断。此外,模型内部机理不透明导致难以追溯“为何给出该结论、依据来自何处、关键假设是什么”,一旦产生误导,纠错成本高、责任界定难,甚至可能引发链式决策偏差,与军事行动“零容错”的要求形成尖锐矛盾。 对策——现实可行的方向,是将其定位为“决策支持”而非“决策主体”,在制度、技术与流程三上同步加固。其一,明确应用边界:低风险、可验证场景中用于信息整编、文本起草、态势摘要、资料对照等工作;在涉重大行动、目标选择与火力运用等关键环节,必须由人员独立完成判断并承担责任,系统输出只能作为参考意见。其二,强化证据链与可审计性:要求生成内容给出信息来源、置信度与关键假设,建立可回放的日志记录与模型版本管理,确保事后可追责、可复盘。其三,设置“人机协同”流程:将系统输出纳入参谋作业的对照校核机制,至少实现多源情报交叉验证、红队质疑与反证检查,避免单一输出直接进入指令链。其四,加强安全治理:通过统一平台入口、分级权限、数据脱敏与隔离运行,降低敏感信息外泄和被对手反向利用的风险,并对训练数据、提示词与接口调用建立严格的合规审查。 前景——总体看,生成式技术在军事领域的应用将呈现“加速探索、审慎落地”的并行态势:一上,平台化建设与演训验证会继续扩大,推动其指挥参谋、保障管理、训练评估等环节深度嵌入;另一上,围绕幻觉控制、可解释性、鲁棒性以及对抗环境下的可靠性验证,将成为能否进入实战关键链路的决定因素。未来一段时期,更可能出现以“可控自动化”为特征的阶段性成果——即在标准化流程、明确约束条件下提高效率,而在不确定性高、后果极端敏感的决策点位,仍以人类判断为中心。
生成式AI为军事创新带来新机遇,但其应用必须建立在安全可控的基础上;当前的核心议题不是技术能做多强,而是如何建立有效的人机协同机制。唯有充分认识技术局限性——平衡效率与安全——才能让AI真正成为国防建设的助力而非隐患。这需要跨领域的持续协作与制度创新。