美政府罕见封杀本国AI企业Anthropic:一场技术伦理与政治权力的博弈
发布时间:2026-03-01 11:52:18来源:
当地时间2026年2月27日,美国总统特朗普签发行政令,下令全美联邦机构立即停用本土AI独角兽Anthropic的全部技术,并给予6个月强制清退期,五角大楼同步将这家估值3800亿美元的企业列入供应链风险名单。这一举措打破了美国“政府护持本土科技企业”的惯例,成为特朗普重返白宫后首次对本国头部AI企业下“死手”,也撕开了白宫与硅谷之间的深层裂痕,引发全球科技圈与商界的震动。
事件核心:从军工合作标杆到被封杀的“风险企业”
被封杀的Anthropic绝非无名之辈,作为OpenAI的最强竞争对手,它由OpenAI早期核心团队成员创立,旗下Claude大模型凭借严谨的安全设计,成为首个进入美军涉密系统的AI产品,手握国防部、中情局等核心订单,一度被视为美国AI军工合作的标杆企业。此前,Anthropic曾与美国国防部签署两年期2亿美元协议,为军方原型化前沿AI能力,其Claude for Government版本更以1美元的价格向全联邦政府提供,深度应用于劳伦斯利弗莫尔国家实验室等涉密场景,甚至通过Palantir等合作伙伴部署在美军classified网络中。
这家高速成长的企业,更是创下了软件行业的增长奇迹——过去九个月,其营收运行率从10亿美元飙升至70亿美元,同时始终坚持“负责任部署AI”的原则,明确拒绝开发可能带来风险的产品,即便这类产品能带来巨额利润。Anthropic CEO达里奥·阿莫代伊曾公开表示,公司的核心理念是“AI应成为人类进步的力量,而非威胁”,始终主张以政策而非政治来规范AI的社会影响,与美国政府在AI发展的核心诉求上曾有诸多共识,甚至公开赞扬特朗普的AI行动计划,其高管也多次参与白宫AI相关活动,支持AI在医疗、教育领域的应用拓展。
然而,这份看似稳固的合作关系,最终因AI军事应用的边界分歧彻底破裂,从军工标杆沦为被封杀的“风险企业”,Anthropic只用了一天时间。
封杀导火索:AI军事应用的伦理红线之争
此次封杀的直接导火索,是Anthropic拒绝五角大楼提出的“无限制使用”要求。随着AI成为美国国防战略的核心资产,五角大楼希望Anthropic放开Claude模型的所有使用限制,允许其用于“任何合法军事用途”,其中包括全自动武器系统、对美国公民的大规模监控,甚至核战争场景下的导弹拦截辅助决策等高危应用。五角大楼认为,这种无限制授权是提升美军作战效率、保障士兵安全的关键,而Anthropic的拒绝的行为,被视为“削弱国家行动能力”“要挟军方”。
面对军方的要求,Anthropic CEO达里奥·阿莫代伊公开拒绝,明确表示这一要求“违背技术伦理与国家安全底线”。作为硅谷“AI安全主义”思潮的代表人物,达里奥始终强调高能力AI存在系统性风险,主张在技术扩散前建立严格的安全护栏,其提出的“宪法式AI”理念,核心就是通过内置规则约束模型输出,避免AI被用于致命性、侵入性场景。在他看来,无论AI落入谁手,缺乏约束的应用都可能带来不可控风险,即便军方提出要求,企业也有责任坚守伦理底线,拒绝将AI用于全自主武器或大规模监控。
这一立场彻底激怒了特朗普,他在“真实社交”平台连发数帖,怒斥Anthropic是“左翼疯子公司”,指责其“拿条款要挟军方、危及美军士兵生命”,随后直接签发行政令启动封杀,将这场商业谈判升级为政治对抗,创下美国史上三个“首次”:首次由总统直接下令封杀本土AI巨头、首次将军工合作企业列入供应链风险名单、首次以刑事追责威胁科技公司服从军方要求。
封杀举措与直接冲击:企业面临生存危机
特朗普政府的封杀举措极具针对性,力度史无前例。行政令明确规定,所有联邦部门必须立即停止采购、部署、使用Anthropic的任何产品;国防部涉密系统需在6个月内完成Claude模型的替换;任何机构或企业拒不配合,将面临民事与刑事双重责任。更致命的是“供应链风险”标签的认定——这一标签通常用于与中国、俄罗斯等国家存在关联的外国实体,从未应用于美国本土科技企业,一旦被贴上这一标签,美国所有企业都将不敢与Anthropic合作,银行会收紧信贷,投资人会加速撤资
(责编: admin)
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。







