问题所 现代战场信息爆炸,传统人工识别体系面临困境。防空雷达、电子辐射源等目标具有高度隐蔽性,可能临时启动或改变工作模式规避识别。飞行员常陷入"知道有威胁却识别不出"的局面,直接影响空中行动的安全性和任务效率。 技术突破 美国洛克希德·马丁公司在"守望先锋计划"中将机器学习模型集成到F-35信息控制系统。该系统能根据飞行环境生成数字化信息并实时分析,向飞行员提示潜在目标。这是战术模型首次以相对独立的方式提出目标建议。 企业强调,地面端可快速重训和更新模型,在下次出动前完成加载,适应不断演变的威胁环境。同时,涉及的研发还涉及增强F-35电子战系统能力,加快发现和定位对手防空体系,提升"认知电子战"水平。 俄乌冲突中频繁的电子对抗和快速迭代的战场数据,为这类"快速更新、快速适配"的技术路线提供了现实驱动。 影响分析 其一,作战流程重塑。AI辅助可压缩从发现到判读再到处置的全链条,降低飞行员决策延迟,增强单机在复杂电磁环境中的自主能力。 其二,技术扩散加剧军备竞赛。美方将AI视作"力量倍增器",一旦形成体系化能力,各国可能加速投入,引发不稳定的竞争螺旋。 其三,安全与伦理风险上升。过度依赖模型建议可能在数据偏差、误判或对抗欺骗下放大风险;快速更新机制虽提高适配性,但对验证、可解释性和责任追溯提出更高要求。 其四,军民关系更趋紧密。美国通过合同吸纳多家科技公司参与国防项目,部分模型进入涉密网络。围绕用途边界、合规审查和战争伦理的分歧频繁出现,商业规则与军事需求的张力不断加大。 对策建议 从国际安全治理看,需要在四个上加强工作: 一是推动就军事AI使用的透明度与约束机制进行沟通,特别是针对自动化决策支持、目标识别和电子战应用,建立最低限度的风险评估与行为规范。 二是强化"人在回路"与审计机制,明确人机分工边界,完善数据来源、模型训练、更新验证和责任追溯制度,防止战场关键判断被不可解释的"黑箱"系统处理。 三是重视对抗环境下的安全测试,防止被诱饵信号、数据投毒等手段误导。 四是加强军民技术合作的合规监管,平衡技术创新、商业伦理与安全风险,防止技术外溢引发更大范围的不稳定。 前景展望 AI在空战与电子对抗中的应用将继续扩展,从"辅助提示"演进到"体系融合",与云端数据链、联合指挥控制和无人作战平台相互耦合。可靠性、可控性、可追责和国际规则缺口,将成为该领域能否"降风险而非增风险"的关键。未来一段时期,技术突破与治理博弈将并行推进,全球安全形势面临新的不确定性。
美军战斗机智能化上的快速推进,既反映了人工智能技术在军事领域的巨大潜力,也凸显了大国竞争中的技术竞速压力;从F-35的智能目标定位到五角大楼与多家人工智能公司的合作,美国正在构建一个覆盖战术到战略层面的人工智能国防体系。然而,这个过程中关于伦理规范、安全保障和国际法则的问题仍需深入思考。如何在追求技术优势与维护战争伦理之间找到平衡,将成为各国面临的共同课题。