“Isn't it strange, to create something that hates you?”——《Ex Machina》
2026年2月23日,Anthropic在官网发布了一份措辞罕见的技术报告:指控中国三家AI公司DeepSeek、Moonshot(月之暗面)和Mini Max利用约2.4万个伪造账户,对Claude模型发起超过1600万次"蒸馏攻击",系统性窃取其推理与编程能力。
报告迅速引爆科技圈。Anthropic把蒸馏攻击和芯片出口管制直接绑在了一起:中国实验室只能靠“偷”美国模型能力来缩小差距,这不正好证明芯片封锁有效吗?
这份报告不是一起孤立事件。2025年9月,Anthropic在官网政策声明两次直接点名China为“敌对国家”和“威权地区”,声明结尾写道:“负责任的AI公司应当采取果断行动,确保变革性技术服务于美国及其盟国的战略利益。”
百度往事与AI黄埔军校
故事要从2014年说起。那一年的硅谷,OpenAI尚未成立,Google刚刚收购 DeepMind,而最激进押注AI的公司是百度。
百度硅谷人工智能实验室(SVAIL)在原 Google Brain核心人物吴恩达的带领下挂牌,并手握一亿美元预算在硅谷大举招兵买马——这笔费用占其当年营收约 15%,在今天不值一提,但在当年已是巨额的投入。
吴恩达(Andrew Ng),百度硅谷人工智能实验室创始人
Dario Amodei就是在这个节点上被拉进AI行业的。他原本跟这个领域毫无交集:加州理工学院物理学本科,普林斯顿大学生物物理学博士,斯坦福博士后研究的是用计算方法分析肿瘤中的癌症生物标志物。之所以从理论物理转向生物学,是因为一个私人的原因——他的父亲罹患罕见疾病去世。就在他父亲去世后短短几年,同一种疾病的治愈率从约50%飙升到了95%。“有人攻克了这种病,救了很多人的命,”Dario后来说,“但本可以救更多。”
这种“再快一点就好了”的遗憾,后来成了他一切行为的底层驱动力。但在2014年,他还只是一个在斯坦福实验室里跟蛋白质较劲的博士后,和前沿的AI领域八竿子也打不着关系。
Dario Amodei,Anthropic首席执行官
百度硅谷实验室早期研究员Greg Diamos看到了Dario在斯坦福期间写的代码后大为震惊,认为“能写出这种代码的人,一定是一个极其出色的程序员”。于是一个没有计算机科班背景、没有机器学习领域论文傍身的生物物理学博士后,就这样被推荐入职了百度。
百度美国公司
2014年11月,Dario正式加入百度SVAIL,身份是研究科学家。中文互联网上普遍流传的“百度实习生”说法并不准确,他实际是全职研究人员。在百度,他深度参与了DeepSpeech2项目——一套端到端的深度学习语音识别系统。这个系统后来在识别准确率上全面超越了谷歌、苹果和微软的同期产品,入选了2016年《麻省理工科技评论》评出的年度十大突破性技术。
DeepSpeech2很成功,但Dario带走的是一个远比产品本身更有价值的认知。他后来在多个公开场合回忆,在百度做语音研究的那段时间,他们发现了一个惊人的现象:
只要持续给模型投入更多的数据和算力,让模型规模更大、训练更充分,性能就会持续且平滑地提升。不需要什么天才式的算法突破,只需要更大、更多、更久。
这条规律后来有了一个响亮的名字:Scaling Law(扩展定律)。它是如今所有大模型军备竞赛的第一性原理——谁能堆更大的集群、喂更多的数据、训练更久,谁就能造出更强的模型。而Dario,是最早在实验中亲手验证这条规律的人之一。与他共事的Diamos日后说:“这是我一生中见过的最重要的发现。”
2015年10月,Dario离开了百度。
同期的百度硅谷人工智能实验室正在经历一场剧烈的人事震荡,百度深度学习研究院常务副院长余凯离职创办了地平线机器人,一批核心研究员陆续出走,吴恩达本人也在不久后离开。一座刚刚建起来的实验室,还没来得及结出最大的果实,就开始散架了。
Dario先是去了Google Brain短暂待了十个月,然后在2016年加入了刚成立不久的OpenAI。
OpenAI的分裂:安全执念从何而来
加入OpenAI后,Dario凭借在百度和谷歌积累的对Scaling Law的深刻理解迅速成为核心技术骨干。他直接领导了GPT-3的研发,这个项目消耗了OpenAI当时相当一部分的算力资源,比GPT-2的模型规模暴增了100余倍,带来了巨大的技术突破。GPT-3发布后震惊业界,被《纽约时报》的独立研究者称为"出乎意料的能力跃升"。
但成功没有弥合裂痕,反而加速了分裂。
2026年2月,Sam Altman与Dario Amodei在印度AI影响力峰会上拒绝握手,成为两人关系破裂的公开象征
Dario与OpenAI联合创始人兼CEO Sam Altman的分歧从GPT-2时代就埋下了。2019年GPT-2发布时,Dario反对完整开源,理由是滥用风险太大,OpenAI最终采取了"有限开放"策略,但这次争论暴露出了核心矛盾,在“快速商业化”和“安全优先”之间,两个人变得不可调和。
2020年,微软向OpenAI注资10亿美元,商业化的齿轮全速运转。Dario代表的"安全派"和Altman为首的"增长派"之间的微妙张力终于达到了临界点。
与Dario同阵营的Jack Clark(OpenAI早期政策负责人,后为Anthropic联合创始人)回忆当时的内部气氛:“我们50%的时间花在说服其他人接受我们的观点上,另外50%才是干活。”分歧到了2020年底已经白热化。于是在2021年初,Dario带着妹妹Daniela Amodei和几名核心研究员集体出走,创办了Anthropic。
Daniela Amodei
妹妹Daniela是位曾在海外NGO和政府部门工作多年的人文学者,在Stripe担任早期员工后加入OpenAI,负责管理GPT-2项目团队。正是目睹GPT-2展现出的惊人能力,让她意识到AI的巨大影响力,以及当商业利益与安全红线冲突时,后者几乎总是被牺牲的那一个。她的丈夫是有效利他主义运动的核心人物,一家人的价值观都很接近,这也就解释了Anthropic为何从一开始就将“长期安全”置于商业扩张之上。
Anthropic从诞生第一天起,就带着一种近乎偏执的安全基因。Dario提出了Constitutional AI(“宪法AI”)的概念——让AI在进行复杂决策时能依照一套书面的价值观原则进行自我评估和自我纠错,而不是完全依赖人类标注。Anthropic后来推出的Claude模型就特别强调 AI 系统的安全性,还在其系统中内嵌了一些道德和伦理的约束规则。
Anthropic开发的大模型Claude
但“安全”这个词的边界,远比大多数人想象的要宽。在Dario的手中,它从一个技术概念,逐渐变成了一面地缘政治的旗帜。
“永恒的 1991:理解一切的钥匙”
要理解Dario的行动,需要先理解他的政治信仰。
2024年10月,Dario发表了一篇万字长文《Machines of Loving Grace(“慈爱机器”)》。“利用人工智能实现强大的军事优势”,可以“拥有一个民主国家在世界舞台上领先、拥有经济和军事实力以避免被专制政权破坏、征服或破坏的世界”,而这“需要私营人工智能公司与民主政府之间的紧密合作”。
在这篇文章中,他提出了一个引发巨大争议的概念—“永恒的1991”(eternal1991)。
1991年,苏联解体,柏林墙倒塌,冷战终结,政治学者福山写下了“历史的终结”。在Dario的设想中,AI将帮助民主阵营重现那一刻,而且这一次是永远的。民主国家将借助AI的力量对威权政府形成压倒性优势,福山的预言将得以永恒实现。
弗朗西斯·福山所著《历史的终结与最后的人》
尽管Dario在长文中小心地使用"authoritarian governments"这个泛称,但结合官网声明中两次直接点名“China”,指向不言自明。
这种表述方式本身就很微妙。“威权政府”是一个学术化的标签,它在保持道德高地的同时,却模糊了具体所指。但Anthropic的官网政策声明直接写“China”,学术语言变成政治语言,意味着Dario“永恒的1991”从来就不只是一篇理论文章,而是一份待执行的行动纲领。
这套理念和硅谷过去二十年信奉的价值观完全相反。过去硅谷讲“技术无国界”,互联网打破了交流的壁垒,信息得以自由流动,带来的创新惠及全人类。所以Google说“不作恶”,Facebook要“连接世界”,哪怕中美关系最紧张的时候,这些公司也试图在商业利益和意识形态之间寻找平衡。
但Dario代表的是一种新的硅谷精神,即技术民族主义(Tech Nationalism)。在这个框架下,AI不再是全人类的公共品,而是民主国家对抗威权政权的战略武器,因此技术的分配不应该由市场决定,而应该由地缘政治立场决定。这是一种从“技术乐观主义”到“技术现实主义”的转向,它承认技术是权力的延伸,而权力必须服务于特定的价值观和利益集团。
1991年苏联解体对于世界产生了巨大的影响
“永恒的1991”意味着Dario希望“威权政府”被永远锁死在技术劣势位置,这就是Dario整个对华立场的思想底座。
这也就解释了为什么他会在达沃斯说出“向中国出口H200芯片就好比向朝鲜出口核武”这种话。在Dario的世界观里,技术封锁本身就是目的,它的意义不止于维护美国的军事优势,更在于确保一种特定的世界秩序能够永恒存续。
信仰如何实践?从2024年到2026年,Dario开始了逐渐升级的行动。
封锁链全貌与“安全卫士”的矛盾
Anthropic对中国的技术围堵,是一步一步强化的。
2024年5月,实施服务禁入,Anthropic在使用条款中明确不向中国大陆用户提供Claude服务,这本在美国的人工智能产品中属于基本操作,只是Anthropic执行得极其严格。
2025年9月,官网声明将禁令范围大幅扩展到所有“50%以上股权由中国资本持有的实体或其子公司”,无论注册在哪个国家都一律禁止使用Claude。一家注册在新加坡但母公司是中资的AI企业,同样被拒之门外。这直接引发了人才流失——Anthropic中国籍明星研究员姚顺宇在禁令后离职转投Google DeepMind,公开表示约40%的离职原因在于“强烈反对Anthropic将中国标签化为‘敌对国家’”。
2025年7月, Anthropic与美国国防部签署2亿美元合同,Claude成为第一个部署在美军机密网络上的AI系统,今年年初美国突袭委内瑞拉并将马杜罗带至美国背后就有Claude的参与。与中国划清界限不再只是价值观选择,还有合同义务。
2026年1月,Dario在达沃斯世界经济论坛上公开反对美国政府允许英伟达向中国出口H200芯片,说出了那句“向朝鲜出售核武”的比喻。
NVIDIA的全新H200 GPU
2026年2月,也就是本文开头的那份蒸馏指控报告。Anthropic将技术窃取与出口管制直接挂钩—中国实验室靠“偷”美国模型能力缩小差距,恰恰证明芯片封锁是有效的。
两年时间,步步收紧,Dario把自己塑造成了AI安全的守护者、民主世界的数字卫士。
但这个人设,正在被多个方向同时撕裂。
就在蒸馏攻击报告发布的同一周,美国防部长Pete Hegseth把Dario叫到了五角大楼,进行了一次被知情人士形容为“相当不友好”的紧张会面。原因是Anthropic拒绝完全解除Claude在军事应用上的安全限制,包括禁止用于大规模监控美国公民和开发完全自主武器系统。
美国国防部
Hegseth给出了最后通牒:2026年2月27日(周五)前同意放宽限制,否则考虑终止2亿美元合同,并将Anthropic列为“供应链风险”。昨日Anthropic虽然给出了回应,拒绝放开Claude在军事应用上的安全限制,但仍不忘提及自己捍卫民主价值观,并对中国继续攻击。
昨日官网发布的,骂太脏了截取范围超限
实际在美国科技界,对Anthropic这些行为不满的也大有人在。最猛烈的火力则来自埃隆·马斯克,他在X平台上直接称Anthropic "misanthropic and evil"(“反人类且邪恶”),并揭破了Anthropic的一个大丑闻:
Anthropic在大规模窃取训练数据方面是有罪的,而且已经不得不为此支付数十亿美元的和解金。
马斯克所指的这起案件发生在2025年8月,Anthropic在一桩版权侵权诉讼中以15亿美元达成和解,这也是迄今为止美国历史上最大的版权和解金额。法庭文件显示,Anthropic从LibGen等盗版网站下载了数百万部受版权保护的图书用于训练Claude。
侵权案事件相关报道
一边指控中国公司“窃取”自己的模型能力,一边自己因为“窃取”他人版权内容被索赔15亿,逻辑上显然自相矛盾。
马斯克的攻击虽然夹杂私怨(他与Dario的矛盾可以追溯到OpenAI时期),但他确实击中了Anthropic的软肋:你用来定义“窃取”的标准,是否也适用于你自己?
但内部矛盾和外部攻击,都不是他面临的最大挑战。更多的质疑来自战略层面:封锁的逻辑本身,是否经得起推敲?
战略悖论:越封锁越危险?
Dario“永恒的1991”愿景,在硅谷并非唯一声音。反对者有来自利益相关方的英伟达,也有来自严肃的战略分析界,他们提出了一个问题:极端封锁会不会反而制造更大的风险?
知名科技分析师Ben Thompson提出了一个有趣的逻辑:AI时代的算力基础设施高度依赖台积电在台湾的工厂,那么如果美国彻底切断中国的芯片供给,中国面临的最优博弈策略反而可能变成“摧毁台积电”,也就是让所有人都用不了先进芯片,拉平竞争。而如果允许中国继续购买英伟达芯片,中国自身也将依赖台积电的产能。这是经典的相互依存理论,与核武时代的“相互确保摧毁”(MAD)异曲同工。
Thompson在分析中写道:“芯片不是核武器。核武器的价值在于不被使用,芯片的价值在于被使用。把先进芯片当核武器管制,恰恰破坏了它作为战略威慑的功能。”
多位地缘政治学者和经济学家也曾警告说,过度依赖技术封锁可能会产生反效果:首先,它会加速中国的自主创新。外部压力往往是技术突破的催化剂,DeepSeek和字节跳动的Seedance 2.0的发布都已经表明,即便在算力受限的情况下,通过算法创新和工程优化,中国团队依然能够接近甚至在某些维度超越美国顶尖模型的性能。封锁没有冻结中国的AI发展,但它迫使中国走上了一条更难但可能更具韧性的道路。
其次,技术铁幕正在重塑全球AI生态。当美国公司将大量潜在市场和人才拒之门外,其他国家和地区正在填补这一真空。欧盟的《AI法案》、印度的AI国家战略、中东主权基金对AI的大举投资——一个多极化的AI世界正在形成。讽刺的是,Dario希望通过封锁巩固美国的技术霸权,但封锁本身可能正在加速这种霸权的终结。
但Dario显然不这么想。在他的世界观里,任何让中国获得先进AI能力的通道,都是对“永恒的1991”的威胁。当技术遭遇信仰,理性分析往往只是陪衬。
尾声:被遗忘的中国公司
这场封锁背后,还有一个被遗忘的起点——百度。
百度曾经距离
那个"改变世界"的位置
无比之近。它比OpenAI更早布局AI,比几乎所有硅谷巨头更早押注深度学习,Dario在百度摸到了Scaling Law的门槛,布赖恩·卡坦扎罗 (Bryan Catanzaro,现NVIDIA 应用深度学习研究副总裁)带走了深度学习的工程经验,范麟熙从百度实习生成长为英伟达AI新星。种子在这里发芽,果实却在别处成熟。
这些果实中的一部分,如今被用来封锁它们的出生地。Dario从百度带走的Scaling Law直觉,最终在OpenAI和Anthropic被放大到了极致,然后被用来论证为什么中国不应该拥有实现同样突破的算力资源。
用一个中国前雇主帮他看清的规律,去封锁这个前雇主所在的国家,历史的吊诡与反讽正在于此。
但在AI文明的大博弈中,技术的发源地和技术的受益者,从来就不是同一个故事,这是一个关于技术、信仰和权力如何在全球化退潮中重新排列组合的故事。
而这个故事,也才刚刚开始。
参考来源:
综合自Anthropic官网政策声明及技术报告原文(anthropic.com)、Bloomberg、Big Technology《The Making of Dario Amodei》(Alex Kantrowitz,2025年7月29日)、Wired《Anthropic's Quest for Benevolent AI》、TechCrunch、Axios、Reuters、Stratechery、纽约时报等公开信源。
部分引用观点不代表本文立场。
Anthropic, Dario Amodei 亦对本文有部分贡献。

