2026年初春,华盛顿向硅谷投下了一枚“政治核弹”。美国总统特朗普签署指令,要求所有联邦机构立即停止使用人工智能巨头Anthropic的技术,国防部更是将这家本土明星企业史无前例地列为“供应链风险”。这一标签,以往是专门用来对付外国竞争对手的。一场关于AI技术控制权、商业伦理与国家安全的公开决裂,就此拉开帷幕。表面上看,这起因于一笔价值2亿美元的军事合同纠纷,但其背后,却深刻揭示了人工智能时代一个根本性的矛盾:前沿科技的开发与应用,究竟应该由谁来划定红线?
要理解这场风波,我们必须回到矛盾的起点。美国国防部向Anthropic等AI公司提出了一个看似简单的要求:为其AI模型“Claude”开放“所有合法的军事用途”权限。这听起来合情合理,但魔鬼藏在细节里。
五角大楼口中的“合法用途”,包含了两个极具争议的潜在应用方向:一是针对美国国内公民的大规模监控,二是无需人类干预的全自主致命武器系统。对于国防部而言,这是提升作战效率、保障士兵安全的技术必需品。他们强调,军队本身就会遵守法律,不需要科技公司来充当“道德警察”。
然而,Anthropic的创始人达里奥·阿莫迪坚决拒绝了这一要求。他的理由基于公司核心的“宪法式AI”理念:现有的前沿AI系统根本不够可靠,无法安全地为全自主武器提供支持;同时,利用AI进行大规模国内监控,也违背了基本的公民权利原则。阿莫迪公开表示:“我们无法昧着良心接受他们的要求。” 这家公司宁愿放弃巨额合同,也不愿其技术被用于可能危害平民或加剧监控社会的场景。
这不仅仅是商业选择,更是一场价值观的对峙。一方认为国家安全至高无上,技术应无条件服务于国家机器;另一方则坚持技术发展必须内置伦理约束,防止其被滥用。当企业试图为技术的军事化应用划出红线时,它得到的不是对伦理关切的尊重,而是被迅速贴上“风险”标签,面临业务中断的行政打压。
一个有趣的插曲是,在这场风波爆发前不久,Anthropic曾公开指控一些中国AI公司对其模型进行“工业级蒸馏攻击”。这很容易让人将其简单归类为“对华强硬派”。然而,紧随其后它便遭到了自己政府的封杀。这其中的矛盾该如何理解?
实际上,Anthropic的底层逻辑并非民族主义,而是“能力扩散焦虑”。其创始团队深受硅谷“AI安全主义”思潮影响,他们的核心论点不是“某个国家危险”,而是“高能力AI本身危险”。无论技术掌握在谁手中,只要缺乏约束,都可能带来系统性风险。因此,他们主张在能力扩散之前就建立严格的安全护栏。
这种逻辑是普适性的。它既可以对潜在的技术竞争者(如中国公司)表达担忧,强调出口管制;也同样可以对自己的政府说“不”,拒绝为可能的风险应用开绿灯。Anthropic在两个方向上都划出了红线,这恰恰说明了其立场的复杂性——它更像一个技术原教旨主义的“保守派”,而非单纯的政治工具。这也解释了为何特朗普政府在批评其是“左翼疯子”的同时,其在某些议题上的表态又显得对华强硬。
很多人将Anthropic的拒绝视为一种纯粹的理想主义牺牲。但商业世界的决策,往往掺杂着精明的利益考量。
*民用市场的金字招牌:Anthropic的估值高达3800亿美元,其主要收入来源于企业级服务和广阔的民用市场。其“安全、可控、合乎伦理”的形象是其核心品牌资产。如果它应军方要求拆除了所有安全护栏,变成了“监控探头”或“杀人武器”的供应商,那么它在欧洲及其他重视数据隐私和科技伦理的市场信誉将瞬间崩塌。失去2亿美元军合同可能只是阵痛,但失去民用基本盘则是灭顶之灾。
*竞争对手的趁势而上:就在Anthropic说“不”的同时,埃隆·马斯克的xAI公司却痛快地答应了五角大楼的所有条件,其Grok模型正迅速接入美军网络。对于xAI而言,这笔交易不仅是预计8-10亿美元的年收入,更是一张融入美国军方供应链、获取政治影响力的“投名状”。两者的不同选择,深刻反映了其商业模式和客户基础的差异。
*OpenAI的“背刺”与站队:事件中另一个关键角色是OpenAI。在Anthropic被列为供应链风险数小时后,OpenAI宣布与国防部达成协议,但同时强调协议中内置了保障措施。OpenAICEO萨姆·奥尔特曼虽公开声援Anthropic的“红线”原则,但行动上却选择了合作。这撕裂了硅谷表面上的“统一战线”,展现了在巨大商业和政治压力下的真实选择。
这场争端因此远非简单的“善恶对决”,而是一场精心计算的商业博弈。Anthropic是在权衡了军品市场的有限收益与民用市场的无限风险后,做出了符合其长期商业利益的选择。
这场冲突最深远的影响,在于它触及了一个根本性问题:在涉及国家安全的关键技术领域,私营企业是否拥有对政府使用其技术的否决权?
美国政府,特别是军方,显然认为答案是否定的。国防部官员公开指责Anthropic试图“攫取对美国军方作战决策的否决权”,并强调“国会制定规则,我们执行规则”,企业不应越位。将一家本土科技巨头列入“供应链风险”黑名单,这在美国历史上极为罕见,其信号意义强烈:在国家利益面前,不合作的资本,无论多么庞大,都可能被重新定义。
然而,企业的担忧也并非空穴来风。当技术能力达到足以颠覆社会伦理和战争规则的临界点时,开发者是否应承担一定的“源头治理”责任?如果完全将决定权交给政治和军事机构,是否会因短期的战术优势而牺牲长远的全球安全?这不仅是美国的困境,也是所有AI先行者面临的共同课题。
这场风波也暴露了美国在“负责任AI”主张上的双重标准。在国际场合,美国常宣扬AI发展的伦理框架;但在国内,当企业真正践行伦理约束并触及军方利益时,却遭到了行政权力的强力压制。这种“顺我者昌,逆我者亡”的逻辑,使得其伦理倡议的诚意大打折扣。
美国对Anthropic的封杀,为全球AI治理提供了一个沉重的注脚。它清晰地表明:
1.技术民族主义正在抬头:技术竞争日益与国家安全深度绑定,地缘政治成为左右技术路线的重要力量。
2.伦理议题沦为博弈工具:AI伦理和安全的讨论,在现实中很容易被国家利益和商业利益所裹挟,难以形成普适、有效的全球规范。
3.企业面临艰难抉择:科技公司必须在商业利益、伦理原则和政府压力之间走钢丝,其独立性和话语权受到严峻挑战。
对于公众和入门者而言,理解这一事件的关键在于跳出简单的“封杀”表象,看到其背后技术、资本、权力与伦理的复杂缠斗。它不是一个孤立的商业新闻,而是一个时代缩影:当人工智能这种兼具巨大赋能能力和潜在破坏性的技术逐渐成熟时,关于其控制权的争夺必将愈演愈烈。
这场始于旧金山会议室、闹到华盛顿总统办公室的争端,或许只是一个开始。它留下的问题——我们该如何驾驭比自己更聪明的工具,而不被其反噬?——将在未来很长一段时间内,持续拷问着每一个国家、每一家公司和每一个人。
