当前浏览器版本较低,部分功能响应较差。使用完整功能,请升级浏览器到最新版本或IE9以上。谢谢!

人工智能时代,AI与人类军人如何协同作战

点击:    时间:2026-03-10

去年以来,为加快整合人工智能(AI)技术,提升作战能力,获取战略优势,美陆军推出“新半人马”模型,旨在通过分层设计人机协同关系,确保人在战场上的指挥决策权。这一模型迅速引发关注。

人机关系面临新挑战

在AI领域,“半人马”模型出现较早,它是将人类的直觉与专业知识,同AI的计算能力与数据处理能力相结合的人机协同系统,反映了人类认知技能与AI技术之间的协同关系。“半人马”模型在国际象棋、医疗诊断和金融分析等领域的使用较为普遍,证明了人类直觉与AI协作,能够超越任何一方独立工作的表现。本世纪以来,当人机团队首次在国际象棋比赛中战胜人类选手后,“半人马”这一概念被特别用来描述象棋大师与象棋软件组队参赛的方式,凸显了人机协同优势。然而,当这一组合被引入军事领域,其带来的风险和挑战,远超棋盘上的输赢。

现代战场态势已高度“数据化”:前线各类传感器网络可实时回传情报,各类算法模型能够预判敌情异常变动,网络信息的流动速度远超传统人力处理极限。生成式AI能在极短时间内整合海量信息,生成多套作战方案,甚至开展对抗推演。在这一背景下,将AI嵌入指挥体系似乎顺理成章。问题在于:随着AI逐渐走上战争“指挥席”,人类究竟是获得了更强的辅助决策能力,还是在“悄然间”让渡军事决策权?一旦算法参与到军事决策当中,造成的失误将由谁来承担?

分层设计确保决策权在人

美陆军推出“新半人马”模型,尝试重新定义人机关系。这一模型提出一种分层级的人机协同体系,主张从“战术—战役—战略”三个战争层级设计人机关系,而不是盲目地将AI嵌入所有决策环节。美陆军称,不同战争层级面临的责任风险不同,需要不同的人机协同模式。在战略层面,AI可以承担数据整合与趋势预测,但政策判断与战略决策必须由指挥官完成。在战役层面,需要保留明确的人工决策节点,确保关键假设与决断由指挥官确认。在战术层面,允许有限的“人在决策环外”的快速决策,同时优先强化战场信息支援,如态势融合与风险预警。

这一设计背后,隐含着对人机协同失控风险的担忧。在紧迫的时间压力下,人类在潜移默化中将判断权逐步“外包”给机器,从“人主导、机辅助”的“半人马”模式,滑向“机主导、人执行”的盲从状态。这种风险不会在短时间内集中爆发,往往始于看似无害的便利。例如模型能快速生成方案初稿,人类只需修改润色即可;算法能迅速筛选作战方案,人类只需判断风险与可行性。久而久之,人类将习惯于在机器生成的框架内思考,不再擅长从零开始独立推演。这种对机器的依赖,在心理学上被称为“自动化偏置”倾向,即当机器表现稳定、专业时,即便生成的内容缺乏充分验证,人们也更倾向于信任它。在军事筹划这类高风险环境中,这种倾向极具危险性。

AI时代人机关系值得深思

值得警惕的是,当前部分兵棋推演实验显示,生成式AI模型的输出存在迎合倾向。面对不同提问方式时,AI模型会调整立场甚至迎合提问者。这表明AI模型并非真正具备独立判断能力,其输出高度依赖输入信息与人机交互方式。若将其直接置于决策核心,风险不言而喻。

因此有研究者提出,不应让AI承担完整的方案制定任务,而应将其定位为“漏洞扫描器”:与其让AI代写作战计划,不如让它专门负责拆解计划、检验假设和查找风险。AI可以快速排除不可行方案,揭示潜在认知盲点,但不参与最终决策,这一角色定位似乎更符合当前技术发展现状。

美陆军已经开始这样做了。“新半人马”模型的核心目标,不是更快生成作战方案,而是更快识别“坏方案”,并在复杂决策环境中保持清晰的责任链条。如果体系的设计能够确保AI模型只提供速度与算力优势,不触碰最终决策权,AI将极大提升指挥决策质量;反之,若人机责任边界模糊,效率越高,隐藏风险反而越大。在军事智能化浪潮席卷而来的今天,如何守住决策责任底线,值得深入思考。