大家好,我是小漢。
5月4日,Anthropic和OpenAI同日組建合資公司。兩家頂級AI實驗室在同一天向企業市場發起沖鋒,其中傳遞的信號不言而喻。
而就在前幾天,美國國防部宣布與OpenAI、谷歌、英偉達、SpaceX等七家科技公司達成協議,將它們的人工智能系統直接接入美軍最高級別的涉密網絡。
![]()
這些AI將用于情報分析、目標識別、后勤調度,甚至輔助作戰決策。
五角大樓稱,此舉是為了“確保美軍在所有作戰領域保持決策優勢”。一場由AI驅動的軍事變革,已經從實驗室走向戰場。
而就在三個月前,曾被五角大樓視為“安全可靠”的Anthropic公司,卻因拒絕移除其AI模型的安全限制,被迅速踢出聯邦供應鏈。
![]()
總統特朗普親自下令,要求所有政府機構在六個月內停用其技術。曾經的合作典范,一夜之間成了“國家安全風險”。
Anthropic的遭遇,不只是商業失敗,更是一場理念的崩塌。
它高舉“安全”與“倫理”大旗,卻在自己信奉的哲學邏輯中一步步走向矛盾,最終被那個它以為站在同一戰線的“正義盟友”親手拋棄。
![]()
Anthropic成立于2021年,由一群從OpenAI出走的核心技術人員創立。他們離開的原因很明確:認為OpenAI為了商業化,正在犧牲AI安全。
新公司一成立,就打出“安全優先”的招牌。他們開發了“憲法式AI”,給模型寫了一套行為準則,要求它誠實、無害、不助紂為虐。
2023年,他們更進一步,發布《負責任擴展政策》(RSP),承諾一旦發現AI存在不可控風險,就立即停止訓練。
![]()
這套做法在業內極為罕見,當時多數公司還在比拼模型能力,Anthropic卻主動給自己戴上鐐銬。
開發者圈子里,它的Claude模型口碑極佳,尤其在代碼生成方面,被認為比GPT更可靠。
到2025年,公司年收入從90億美元猛增至400億美元,增速遠超OpenAI。
![]()
但光鮮背后,是另一套現實。Anthropic并非獨立運作。
亞馬遜先后投入80億美元,谷歌也注資超30億。兩家巨頭不僅提供資金,還承擔了絕大部分算力和云基礎設施。
這意味著,Anthropic的發展高度依賴它所批判的“大科技”體系。
![]()
它一邊說要慢下來搞安全,一邊又以驚人速度擴張;一邊標榜獨立,一邊深度綁定資本。
這種張力,從一開始就埋下了分裂的種子。
![]()
Anthropic的行為看似矛盾,實則有一套嚴密的內在邏輯——有效利他主義(EA)。
這不是普通的慈善理念,而是一種用數學和理性計算“如何行最大善”的哲學。
在EA看來,防止人類滅絕是最高目標,而超級AI是最可能引發滅絕的風險源。
![]()
創始人Dario Amodei是EA圈的活躍分子,他和團隊都承諾捐出80%個人財富,早期投資人包括FTX的SBF——當時EA運動最著名的“賺錢去捐”實踐者。
在這一框架下,Anthropic的許多選擇變得合理:接受亞馬遜和谷歌的錢,是為了獲得資源對抗潛在對手。
封鎖中國用戶,哪怕損失數億美元收入,也是為了降低“威權政權掌握強大AI”的概率;與美國軍方合作,則被解釋為“用AI優勢維護民主秩序”。
![]()
關鍵在于,EA允許手段上的妥協,只要最終目標足夠崇高。
因此,Anthropic可以一邊警告AI危險,一邊全力加速模型迭代;可以一邊拒絕武器化,一邊進入五角大樓機密系統。
在他們看來,這不叫虛偽,而是策略。而整個策略的前提,是默認“美國代表正義”——這個判斷從未被質疑,而是當作公理使用。
![]()
2026年初,這套邏輯遭遇現實重擊。隨著特朗普執政理念的影響,國防部對AI的態度發生根本轉變。
國防部長赫格塞斯要求所有AI供應商移除技術限制,確保模型可用于“所有合法用途”,包括全自動武器和國內監控。
Anthropic提出保留兩條底線:不能用于完全無人干預的致命武器,不能用于對美國公民的大規模監控。
五角大樓拒絕讓步,2026年2月27日,談判破裂。幾小時內,Anthropic被列為“供應鏈風險”,特朗普下令全面停用其技術。
更諷刺的是,OpenAI幾乎同步接手原合同,迅速填補空缺。
這場決裂撕開了Anthropic理念的脆弱面,它從未想過,那個它認定為“正義代表”的美國政府,會要求它放棄安全原則。
![]()
在Anthropic的敘事里,與美軍合作是“防御性善舉”;但在五角大樓眼中,AI只是工具,工具不該有“道德判斷”。
當國家機器需要絕對服從時,任何基于良知的限制都成了障礙。幾個小時之內,五年構建的信任土崩瓦解。
Anthropic以為自己在參與一場保衛民主的使命,結果發現,在權力面前,善意毫無分量。
![]()
Anthropic的困境,早有先兆。
2022年,EA明星信徒SBF因挪用客戶資金被判刑。他在法庭上辯稱,自己偷錢是為了賺更多錢去捐,從而拯救更多生命。
這一邏輯正是EA的核心——為更大善可犧牲局部利益。但問題在于,誰來判斷“更大善”?SBF的估算錯了,代價是無數投資者的血本無歸。
![]()
Anthropic也在經歷類似的腐蝕,2026年2月,就在與五角大樓對峙期間,公司悄悄發布RSP 3.0。舊版中“若不安全就停工”的硬承諾不見了,取而代之的是模糊的“安全路線圖”。
首席科學家解釋:“如果對手在加速,我們單方面停下毫無意義。”
這句話,正是當年Dario離開OpenAI時所反對的邏輯。五年過去,批判者成了踐行者。他們不再相信暫停的價值,轉而接受“必須跟上”的現實。
![]()
這印證了一個殘酷事實:再高尚的初衷,也可能在持續的妥協中變質。
每一次“合理讓步”,都用“期望值計算”包裝,久而久之,底線不斷后退。
Anthropic曾以為自己能駕馭AI這枚“魔戒”,但歷史一再證明,最大的危險,往往來自那些堅信自己是好人的持戒者。
![]()
如今,美軍AI作戰體系已全面啟動。八家科技巨頭集體入局,AI軍事化不再是假設,而是正在進行的現實。
Anthropic的出局,不是安全理念的終結,而是一記警鐘:當技術、資本與國家意志合流,任何試圖用單一哲學掌控全局的努力,都可能被現實碾碎。
AI的未來,不取決于誰的模型更強,而在于能否守住那些不該被“理性計算”抹去的邊界。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.