![]()
2026年春天,達里奧·阿莫迪(Dario Amodei)突然變成了硅谷討厭鬼。
![]()
黃仁勛就差直接點名阿莫迪了,猛烈批評那些不斷預言AI將大規(guī)模消滅工作的CEO是患上了“上帝情結”:一旦成了CEO,就很容易以為自己什么都知道。奧特曼說阿莫迪用“恐懼”做營銷,楊立昆干脆說他不懂技術革命如何影響就業(yè)。
就連媒體也開始追問:一個不停警告世界末日的AI大佬,為什么自己還不停下?
阿莫迪得罪人,當然不僅僅是因為他道德感太高而情商又太低。
微妙的是,他確實長期相信AI風險,也確實把這種信念變成了Anthropic最鋒利的商業(yè)武器。
這家從OpenAI出走后成立的公司,已經不再只是一個打著“AI安全”旗號的研究型團隊。Claude Code成了企業(yè)AI市場最兇猛的產品之一,年化收入跑到數十億美元級別。更夸張的是,據Business Insider報道,Anthropic在私募二級市場的估值已突破1萬億美元。
當一個人一邊站在道德高地上提醒所有人慢一點,一邊又在賽場中央下注,而且越下注越大,他就很難不變成靶子。
01
全民公敵
阿莫迪正在成為AI行業(yè)里最讓人不爽的人。
最新一個開火的人,是黃仁勛。
在一檔播客里,黃仁勛把那些動輒預言AI將造成大規(guī)模失業(yè)、甚至帶來人類滅絕風險的科技CEO,稱作患上了“上帝情結”。
他的大意是,一旦坐到CEO的位置上,人就很容易開始以為自己什么都懂。可關于AI的公共討論,應該回到事實,而不是被夸張的末日敘事牽著走。
![]()
這番話沒有點名,但很難不讓人想到阿莫迪。
而這已經不是黃仁勛第一次被阿莫迪的AI風險敘事惹到。
阿莫迪一直支持更嚴格的芯片出口管制,還專門寫過長文呼吁加強限制。今年在達沃斯論壇上,他把向中國出口先進AI芯片,類比成“賣核武器”。
黃仁勛當然不會接受這個說法。
在另一檔播客里,黃仁勛被問到這個類比時,直接說這實屬“荒唐”。他認為,把AI芯片和核武器相提并論,是一個很差,也不合邏輯的類比。
![]()
如果說黃仁勛的反擊,來自英偉達和Anthropic在芯片政策上的直接利益沖突,那么OpenAI的攻擊就更像是老對手之間的正面交鋒。
在一次播客對談中,奧特曼稱Anthropic正在用“恐懼”做營銷。
他用了一個頗為刻薄的比喻:這就像有人說,我們造了一顆炸彈,馬上要扔到你頭上,然后我們可以賣你一個一億美元的防空洞。
![]()
這句話很明顯指向Anthropic剛剛發(fā)布的Claude Mythos Preview。按照Anthropic自己的說法,這個網絡安全模型能力太強,暫時不會對公眾開放,而是先放進一個名為“玻璃之翼”的項目里,為合作機構做防御性安全工作。
來自OpenAI的“攻擊”還不止這一次,4月13日,The Verge披露了OpenAI首席營收官丹妮絲·德雷瑟(Denise Dresser)發(fā)給員工的一份四頁內部備忘錄。備忘錄主題是如何贏下企業(yè)AI市場,但其中專門拿出一段討論Anthropic,幾乎是在逐條拆對手的臺。
![]()
其中寫道,Anthropic的故事建立在“恐懼、限制,以及少數精英應該控制AI的觀念”之上。
她還說,Anthropic過度依賴代碼場景,算力儲備不足,并質疑其年化收入說法,稱Anthropic把與亞馬遜、谷歌的收入分成按總額計入,導致其300億美元年化收入被高估了大約80億美元。
阿莫迪和奧特曼是老冤家,OpenAI和Anthropic是直接競爭對手;黃仁勛的芯片生意,也直接被阿莫迪的政策主張波及。他們的反擊看起來都有跡可循。
但這還沒完。
楊立昆(Yann LeCun)也在X上公開懟過阿莫迪。這一次,爭議來自AI對就業(yè)的影響。
2025年,阿莫迪接受Axios采訪時說,AI可能在未來一到五年內消滅一半初級白領崗位,并把失業(yè)率推高到10%到20%。他還說,AI公司和監(jiān)管機構不能繼續(xù)粉飾、不能把即將到來的沖擊說得太輕。
針對阿莫迪關于就業(yè)的判斷,楊立昆在X上說:“達里奧是錯的”“他對技術革命如何影響勞動力市場一無所知”。他甚至說,這類問題應該多聽經濟學家的,而不是AI圈的任何人的,包括楊立昆自己在內。
![]()
就連輿論也開始出現一些質疑的聲音。
僅就來自知名媒體的評論舉例:《泰晤士報》質疑警告世界末日的AI大佬為什么自己不停下來,TechCrunch則點出,Anthropic限制Mythos開放,表面是保護互聯(lián)網安全,但這種選擇性開放也可能幫助它鎖住大企業(yè)客戶、阻止小公司通過蒸餾復制能力,從而保護自己的商業(yè)利益。
![]()
很明顯,阿莫迪帶領著Anthropic,占領了某種道德高地。但越是站在高地上,就越成為了被攻擊的靶子。
問題在于,僅僅是因為阿莫迪太有原則、太堅持“安全”,不惜得罪人,所以才被反過來攻擊嗎?
阿莫迪越是用力地當“道德標兵”,他身上的一個道德悖論就越刺眼——他站在賽場中央,一邊下注,一邊提醒所有人這場比賽可能有毒。
這實在太別扭了。
02
“安全大王”的來時路
備忘錄里,OpenAI首席營收官丹妮絲提到了一個詞:“精英”。
這確實是阿莫迪身上最醒目的標簽之一。
他那場站在道德高地上的對決,也幾乎成了他聲望的巔峰——面對美國戰(zhàn)爭部的要求,Anthropic拒絕放寬Claude的使用邊界,堅持不允許其被用于大規(guī)模監(jiān)控,也不允許用于沒有人類參與決策的完全自主武器。
![]()
阿莫迪當時說,他們“出于良心不能答應”這個要求。那一刻,公眾的歡呼里,多少帶著一種久違的釋放,硅谷精英終于又一次站出來,對更大的權力說了“不”。
要搞懂這個“安全大王”從何而來,還是得往回看他的來路。
阿莫迪1983年出生在舊金山。父親是意大利裔皮革匠,來自托斯卡納,長期受健康問題困擾,在阿莫迪年輕時去世;母親是出生于芝加哥的猶太裔美國人,曾做圖書館項目經理。
阿莫迪從小就是標準的理科尖子生。他讀的是舊金山最有名的公立精英高中之一,2000年入選美國物理奧林匹克隊。上大學后,他先進了加州理工學院——也就是美國最頂尖的理工科名校之一,后來轉到斯坦福,拿到物理學本科,最后又去普林斯頓讀完了生物物理博士。
他是物理、神經科學、AI研究多維融合的技術型人物,這也決定了他的復雜視角。
![]()
2014年,吳恩達把阿莫迪招進百度在硅谷的人工智能實驗室,參與語音識別系統(tǒng)的研究。后來他成為Deep Speech 2論文作者之一,這套系統(tǒng)主打端到端語音識別,覆蓋英語和普通話,也試圖用更大規(guī)模的數據、算力和訓練重走傳統(tǒng)語音識別流程。也就是在這段時間里,阿莫迪開始形成對“規(guī)模化”的早期直覺。他后來在訪談中回憶,當時發(fā)現,當模型更大、數據更多、訓練時間更長時,效果會持續(xù)變好。對他來說,后來貫穿GPT、Claude這一代大模型的Scaling信仰,在百度做語音識別時就已經埋下了伏筆。
丹妮拉·阿莫迪(Daniela Amodei)也是一個重要角色。她同樣從OpenAI出走,兄妹倆共同創(chuàng)辦Anthropic。
兄妹倆形成雙核結構。阿莫迪更像技術路線和安全敘事的代表,丹妮拉則更多承擔公司運營、組織建設和商業(yè)推進。Anthropic今天這種奇特氣質——一邊像安全研究機構,一邊又是高速融資、高速擴張的AI公司——很大程度上就來自這組搭檔。
![]()
這種家族紐帶也給Anthropic帶來一種特別的穩(wěn)定感,使這家公司更像一個從舊組織里分裂出來的小團體,帶著強烈的自我認同,認為自己要用另一種方式做AI。
2020年底,OpenAI發(fā)布了一篇非常客氣的組織更新,宣布時任研究副總裁阿莫迪即將離開。文章感謝他近五年的貢獻,提到他參與GPT-2、GPT-3,并與蘇茨克維(Ilya Sutskever)等人共同設定研究方向。
最微妙的是,OpenAI還寫道,阿莫迪和幾位同事計劃開啟一個新項目,這個項目“可能會更少關注產品開發(fā),更多關注研究”。而其他大部分篇幅,用來表明OpenAI自己在安全領域的決心。
![]()
多年后,當Anthropic和OpenAI的矛盾公開化之后,人們回溯當年的友好“分手”,不難看出雙方對于AI能力增長和安全邊界應該如何排序,早已存在分歧。
幾個月后,Anthropic成立。此后,安全從阿莫迪的個人立場,慢慢變成了這家公司的骨架。
它有RSP,也就是《負責任擴展政策》(Responsible Scaling Policy),用ASL等級給不同能力階段的模型設置風險要求,有點像AI版的生物安全等級;它通過一套“憲法”原則引導模型行為;它還持續(xù)投入可解釋性研究,試圖打開模型黑箱。
阿莫迪當然在利用“安全”,但前提是,他也確實長期相信安全。從OpenAI出走,到創(chuàng)立Anthropic,再到RSP、AI“憲法”、可解釋性、模型風險分級、國防合同邊界,他的行為頗具長期一致性。
這也是阿莫迪復雜的地方。
他身上有一種很強的精英自信——我看見了更大的風險,所以我有資格提醒所有人慢一點、嚴一點、怕一點。可同樣是這種自信,讓他顯得居高臨下。
而當阿莫迪開始經營一家商業(yè)公司,當“道德”遇上商業(yè),精妙的平衡更加難以維持。
03
當“安全”變成公司主線
“安全”既是Anthropic的生意,也是篩選機制。
Anthropic的特殊之處在于,它從一開始就是一群人從OpenAI出走后組建的新組織,出走的理由里有技術路線,也有安全理念,還有對“誰應該定義AI未來”的分歧。
所以文化在Anthropic顯得格外重要,更像一套操作系統(tǒng)。
![]()
阿莫迪是一個帶著研究員氣質的組織設計者。他曾在訪談里說,自己大概三分之一,甚至40%的時間,都花在確保Anthropic的文化是好的上。
Anthropic表面上總在講謹慎、克制、邊界,但內部并不是一種溫吞水文化。相反,Anthropic公司內部有一種類似個人公開筆記本的Slack頻道,員工會在里面寫自己的想法、工作進展,甚至直接和阿莫迪展開辯論。
可以想見,不管是Anthropic的準入門檻還是內部文化的不斷塑造與碰撞,都形成了對人才的某種篩選機制。
過去一年,Meta為了補強AI團隊,到處揮舞支票本挖人。AI行業(yè)的人才價格被抬到夸張程度,頂尖研究員和工程師幾乎變成了自由市場上的超級球星。面對這種挖角,一些公司本能地“跟價”,至少是明確地表示要提高員工薪酬,先把人留下來再說。
![]()
阿莫迪沒有這么做。他公開解釋過,Anthropic不會因為外部公司給某個人開了天價offer,就立刻打破自己的薪酬原則。他說,如果扎克伯格像扔飛鏢一樣隨機擊中某個人的名字,那并不意味著這個人就應該比旁邊同樣優(yōu)秀的同事多拿十倍。
更有意思的是,阿莫迪表示,有些Anthropic員工面對Meta的挖角,甚至連扎克伯格都不愿意聊。這句話里當然有炫耀的成分。但它真正想傳遞的是Anthropic員工的“共識”是存在且牢固的。
阿莫迪必須讓員工相信,Anthropic不是另一家只想跑得更快的AI公司;同時,他又必須帶著這家公司真的跑得足夠快。否則,安全敘事再漂亮,也只會變成賽場邊上的道德評論。
“安全”作為生意,成績斐然。
Anthropic從一開始就天然吸引那些對可靠性、可控性要求更高的客戶。Claude剛推出時就強調可靠性、可預測性和可引導性,早期合作伙伴就是Notion、Quora、DuckDuckGo、Juni Learning這類知識生產、搜索、教育和工作流工具。
Anthropic賣的不是“最便宜的模型”。企業(yè)、政府、代碼、金融、醫(yī)療、教育、公共部門——這些客戶更在意穩(wěn)定性、合規(guī)性、安全邊界和長期責任。價格上也能看出來,Claude并不是低價路線。Claude Opus 4.7的價格是每百萬輸入tokens 5美元、輸出25美元;Claude Sonnet 4.6是輸入3美元、輸出15美元。相比之下,xAI的Grok 4.20是輸入2美元、輸出6美元,明顯更激進;OpenAI的GPT-5.5則是輸入5美元、輸出30美元,和Claude Opus處在同一高價區(qū)間。
![]()
Reuters此前也報道,Anthropic擁有超過30萬商業(yè)和企業(yè)客戶,這些客戶貢獻約80%的收入。企業(yè)客戶按用量付費,留存更穩(wěn)定,擴張空間也更大,一旦進入代碼、辦公流、云平臺和政府系統(tǒng),收入就不是普通訂閱產品能比的。
與之相比,OpenAI靠ChatGPT在C端打出了最大的聲量,也確實把大眾用戶教育到了前所未有的規(guī)模;但C端用戶多,不等于收入結構最好。
OpenAI自己最新說法是,企業(yè)收入已經超過總收入的40%,并希望到2026年底追平消費端。換句話說,即便是OpenAI,也正在拼命往企業(yè)市場努力。
![]()
Anthropic和美國戰(zhàn)爭部DoW的合作更是典型例證,很長一段時間里,Anthropic都是DoW在“機密領域”唯一合作的AI公司。Claude被用于情報分析、建模與仿真、作戰(zhàn)規(guī)劃、網絡行動等任務。
順著這個思路,回看Anthropic與DoW之間的激烈“斗爭”,足見阿莫迪將安全作為生意的功力——通過對“大規(guī)模監(jiān)控”“自主武器”底線的強調,即便丟了與DoW之間的合作,卻讓Anthropic的公眾知名度與“可靠度”更上一個臺階,在資本市場獲得了前所未有的青睞。
Anthropic的年化收入從2025年底的90億美元,沖到2026年4月的300億美元量級;今年2月,它以3800億美元估值完成300億美元融資,隨后Google又計劃最高向其投入400億美元。更有報道指出,其在二級市場的估值已經達到了1.1萬億美元的規(guī)模。
安全聽起來像一種克制,但在Anthropic它最后變成了一種更高級的商業(yè)語言。
但這套治理術當然有它危險的一面。
當一家公司把“安全”變成組織信仰,它就會天然獲得一種道德優(yōu)越感,也更容易把競爭對手襯托成不負責任的人,把商業(yè)選擇包裝成價值選擇。
這也是為什么Anthropic越成功,阿莫迪越讓人不舒服。
04
“安全”的兩面
如果僅僅將阿莫迪看作一個因為有理想有底線但情商低、因此總是說大實話得罪人的“理工男”,未免有點天真。
《華爾街日報》曾有一篇文章,回溯阿莫迪和奧特曼之間的10年恩怨。
阿莫迪在OpenAI的故事遠不是一句“安全理念分歧”能解釋。
![]()
2018年,馬斯克退出后,阿莫迪同意留下的條件是布羅克曼(聯(lián)創(chuàng)之一)和蘇茨克維不得掌權——他先談的是權力分配,而非技術路線。
隨后在關鍵的模型項目里,他和妹妹丹妮拉聯(lián)手,把想加入的布羅克曼擋在門外,理由之一是某位核心研究員“不想與之共事”。這位研究員事后形容自己被高管當成“代理人武器”,可見阿莫迪非常懂得借人結盟。
隨著GPT-2/3走紅,他對功勞歸屬和曝光度愈發(fā)敏感:不滿布羅克曼在播客里“搶風頭”,發(fā)現奧特曼和布羅克曼準備去見奧巴馬卻沒帶自己,更是當場發(fā)火。
次年他要求升任研究副總裁,奧特曼同意,并在董事會郵件中附帶一句“阿莫迪承諾不再貶低他不認可的項目”,儼然一項停火條款。
這些細節(jié)說明,安全是阿莫迪的信條,也是一把鋒利的組織武器。他會談條件、爭項目、搶奪話語權,把“風險”話術用來界定誰能留在核心。
最終離開OpenAI創(chuàng)辦Anthropic,與其說是理想出走,不如說是內部奪權失利后,將戰(zhàn)場外移。
當他掌舵Anthropic之后,情況變得更加復雜。Anthropic不再是研究室里的理想實驗場,而是一艘高速增長的商業(yè)戰(zhàn)艦。這個時候,安全就從純原則,變成了實打實的產品賣點。
Anthropic越是高調強調AI風險,越能凸顯自己的存在必要;越是點名別人跑得太快,越能把自己包裝成企業(yè)、政府和監(jiān)管者最可靠的伙伴。
它的敘事天然帶著一種道德比較,即選Claude,不只是挑了個模型,也是在選擇一條更負責、更可控的路線。
對競爭對手來說,這就很煩人了。你賣產品也就罷了,還順手把別人襯得像不負責任的賭徒。安全成了差異化護城河,也成了營銷利器。企業(yè)客戶愿意為“安心”多付錢,政府部門也更容易把敏感項目交給“最安全”的那一家。
在這個過程中,安全也同時變成了一種政治籌碼。
Axios報道,2026年第一季度,Anthropic聯(lián)邦游說支出達到160萬美元,超過OpenAI的100萬美元,也創(chuàng)下自身最高紀錄;此前它還宣布向一個主打AI透明度和安全護欄的兩黨倡議組織投入2000萬美元,并計劃擴充政策團隊、在華盛頓設立長期辦公室。
說白了,阿莫迪已經在爭奪AI時代的游戲規(guī)則。
阿莫迪的復雜性,正在于這兩件事可能同時成立:他確實相信AI安全,也確實把AI安全變成了Anthropic最鋒利的商業(yè)武器。安全既是他的信仰,也是他的權力杠桿。
原則和利益并非簡單對立,而是互相喂養(yǎng)、互相強化。正是這種真假交織的狀態(tài),才讓他既被捧為“安全大王”,又被一些人視為精明的操盤手。
Anthropic越會解釋風險,越有機會定義風險;越有機會定義風險,越能把自己放進AI時代的規(guī)則中心。
這是屬于阿莫迪的“安全魔法”,而“全民公敵”,就是玩魔法的必備副作用。
也許他甘之如飴。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.