2026年初,当OpenAI宣布与美国国防部达成合作协议,将ChatGPT集成到其军方人工智能平台GenAI.mil时,整个科技界和公众舆论仿佛被投入了一颗深水炸弹。一时间,“AI武器化”、“终结者”之类的词汇充斥网络,随之而来的是ChatGPT应用卸载量激增近300%的惊人数据。这究竟是一场理性的技术应用探索,还是打开了潘多拉魔盒的危险开端?我们不妨抛开情绪,仔细梳理一下这场合作的来龙去脉,以及它背后复杂的现实图景。
老实说,OpenAI这步棋走得有点急。今年2月28日,他们和五角大楼签署协议的消息一公布,市场直接炸了锅。Sensor Tower的数据显示,消息公布当天,ChatGPT移动应用在美国的单日卸载量环比飙升了295%,这个数字对比过去30天日均9%的卸载率,简直是断崖式的反应。更直观的是用户评价——一星差评暴涨775%,五星好评却腰斩了一半。这可不是什么产品故障能解释的,纯粹是用户用脚投票。
用户反应为何如此激烈?说白了,就是“信任危机”。大家突然意识到,自己每天用来写诗、编程、聊天的工具,可能下一秒就被用来分析战场情报、筛选打击目标。这种心理落差,就像你发现邻居家的园丁其实是特工一样,让人浑身不自在。社交媒体上迅速掀起了“#CancelChatGPT”的运动,指责OpenAI背叛了其“安全、有益”的创立初衷。
有意思的是,OpenAI的竞争对手Anthropic上演了一出“反向操作”。就在OpenAI宣布合作的前一天,Anthropic公开拒绝了与五角大楼的合作,理由是担心其模型Claude被用于“国内大规模监视”或开发“自主武器系统”。结果呢?Claude的下载量在接下来两天分别增长了37%和51%,甚至一度登顶美国App Store免费榜。这一正一反的市场反应,把公众的担忧和选择清晰地摆在了台面上。
面对这波舆论海啸,OpenAI CEO萨姆·奥尔特曼在社交平台X上公开道歉,承认宣布协议的行为“投机且草率”。他承诺修改协议,增加明确条款:禁止其AI系统被用于对美国公民的监控,并确保不会被用于国防部情报机构。这个“紧急刹车”虽然挽回了一些局面,但裂痕已经产生。
那么,抛开争议,美军到底想用ChatGPT做什么?根据公开资料和合作协议的细节,其应用场景远比“指挥无人机杀人”要复杂和日常化。我们不妨用一个表格来梳理一下目前已知和潜在的主要军事应用方向:
| 应用领域 | 具体功能/场景 | 技术价值 | 潜在风险与争议 |
|---|---|---|---|
| :--- | :--- | :--- | :--- |
| 情报分析与决策支持 | 快速处理、总结海量情报报告;生成态势报告;模拟推演不同行动方案(COA)。 | 大幅提升信息处理速度,辅助指挥官在高压动态环境中更快决策。 | 模型可能产生“幻觉”(编造信息);过度依赖AI可能导致人类判断力边缘化。 |
| 后勤与行政效率 | 自动生成报告、文书;优化物资调配和运输路线;翻译多国语言文件与通信。 | 解放人力,让军事人员专注于核心任务;提升跨语言协同效率。 | 相对低风险,但涉及敏感数据的安全问题。 |
| 训练与模拟 | 生成复杂、多样的训练想定和模拟环境;扮演假想敌进行兵棋推演。 | 低成本、高效率地创建难以在现实中复现的训练场景(如城市巷战、混合战争)。 | 训练数据的偏见可能导致模拟脱离现实;过度拟真可能带来道德麻木。 |
| 目标识别与排序 | 分析侦察数据,辅助识别潜在目标;根据既定规则(如威胁等级、地理位置)对目标列表进行优先级排序。 | 处理多源异构数据,提供人类可能忽略的关联性分析。 | 最敏感的领域。AI只提供“建议”,最终决定权在人类,但“建议”本身可能带有偏见或错误。 |
| 心理战与信息对抗 | 快速生成多语种宣传内容;分析敌方舆论态势;自动识别和对抗网络虚假信息。 | 在信息战中占据速度和规模优势。 | 可能被用于制造和传播深度伪造内容,模糊战时宣传与事实的界限,引发法律和伦理问题。 |
看这个表格就能明白,美军的意图是将ChatGPT作为一个生产力工具和决策辅助系统,而非一个拥有“开火权”的自主杀手。用一位国防部官员的话说,AI的角色更像是“一个极其高效、不知疲倦的分析员”,它可以24小时处理卫星图像、信号情报和开源信息,然后给出一个带有风险评估的建议清单。最终按下按钮的,必须是人。
这听起来似乎合理,但问题恰恰出在这个“辅助”环节。当决策链条被AI极大压缩,人类指挥官是更审慎了,还是更容易被AI提供的、看似客观的数据和推论所说服?英国纽卡斯尔大学的学者克雷格·琼斯就警告,这种效率的提升伴随着巨大的伦理风险,可能让人类在不知不觉中交出了部分决策权。
说到这儿,我们得泼点冷水。当前的大语言模型(LLM),包括ChatGPT,在军事这种高可靠性要求的场景下,还远非完美,甚至可以说是“坑”不少。
首先,“幻觉”问题是个硬伤。AI可能会一本正经地编造出根本不存在的部队番号、武器参数或地理信息。在军事行动中,这种错误是致命的。Palantir公司(一家为美军提供AI系统的公司)的英国业务负责人路易斯·莫斯利就坦承:“大模型可能会犯错,甚至编造一些东西。”因此,美军强调必须进行严格的人工监督和事实核查,北约特遣部队的官员也反复声明“始终进行人工监督”。
其次,是安全和部署的挑战。像GPT-4这样的大模型通常需要庞大的云计算支持,但在前线、潜艇或没有稳定网络的环境下怎么办?所以,美军对能在本地设备(如无人机、单兵终端)上运行的、更轻量化的“开源”或“开放权重”模型兴趣浓厚。这些模型可以离线运行,避免了网络中断或干扰的风险,也更能保护任务数据的机密性。
最后,也是最根本的,是信任问题。AI的决策过程像个黑箱,它为什么推荐先打击A目标而不是B?是基于怎样的逻辑和权重?如果无法解释,人类指挥官就很难完全信任它。因此,如何构建“可信AI”,让AI的推理过程可理解、可追溯,是技术整合前必须跨越的门槛。
OpenAI与美军的合作,看似是一桩商业合同,实则拉开了全球AI军事化应用竞赛的序幕,也引爆了关于AI伦理与治理的全球大讨论。
一方面,大国竞争驱使各国加速AI军事应用。美国国防部已经推出了“人工智能加速战略”,明确要以“战时速度”将前沿AI整合到每个任务领域。其目标是明确的:利用AI获得不对称的决策优势,在未来的冲突中“更快、更准、更狠”。俄罗斯、中国等国家同样在积极布局。这几乎注定了一场AI军备竞赛的上演。
另一方面,国际社会对AI武器化的担忧与日俱增。OpenAI遭遇的抵制只是民间情绪的一个缩影。更深层次的矛盾在于:国际法如何规制AI在战争中的使用?例如,如果一个AI系统生成了煽动性的战争宣传,并导致了战争罪行,责任该由谁承担——是开发公司、使用国军队,还是无法追责的算法本身?再比如,使用AI辅助进行目标打击,在程序上如何确保符合“区分原则”(区分战斗员与平民)和“比例原则”?这些问题都还没有答案。
更微妙的是企业自身的立场摇摆。Anthropic以伦理为由拒绝了军方合作,OpenAI则在商业利益和公众压力之间反复横跳,最后增加了“禁止监控美国人”的条款。这暴露出科技巨头在成为“国家科技力量”与保持“全球公共产品”形象之间的艰难平衡。它们既想从政府合同中获利,又不想失去全球用户的信任。
回望整场风波,ChatGPT与美军的合作,与其说是一个“邪恶”的开端,不如说是AI技术融入现代社会深层肌理时必然引发的阵痛。它像一面镜子,照出了我们对技术既依赖又恐惧的复杂心态。
技术的本质是工具,ChatGPT也不例外。它可以成为提升军事效能的“力量倍增器”,也能成为制造混乱的“谣言工厂”。关键不在于技术本身,而在于使用技术的人、制定的规则以及全社会的监督。
美军强调“人在回路中”(human in the loop),这无疑是正确的底线。但我们需要更进一步的思考:这个“回路”是否足够牢固?人类驾驶员是否具备足够的能力和警觉,在AI以每秒处理万亿字节数据的速度提供建议时,依然能保持独立、清醒且合乎道德伦理的判断?
OpenAI的这场合作风波,给全世界提了个醒:在AI时代,关于技术应用的公共讨论、伦理审查和法律规制,必须跑到技术部署的前面。否则,当技术的列车全速前进时,我们再想设置安全护栏,可能就为时已晚了。说到底,让AI服务于人类的安全与福祉,而不是相反,这场战役的主动权,仍然牢牢握在人类自己手中。只是,我们握得够紧吗?这或许是ChatGPT入主五角大楼背后,留给我们所有人的、最沉重的思考。
