![]()
我在2023年開始使用Claude,2025年初被封號,失去所有對話記錄,怎么申訴都沒用。甚至通過蘋果充值的訂閱費也沒了。
后來通過訂閱poe間接使用Claude,但是poe使用體驗越來越差,而且間接調用不是那個味。
重新注冊了,但是不敢深度使用,畢竟失去記錄是很痛苦的。
主要陣地回到Chatgpt,GPT5.2后用起來很舒適,可能是幻覺最少的一個模型,幸好又出了Gemini3.0,二者可以可以彌補失去Claude的困境。
但是Claude繼續展現出了越來越強的生命力,甚至在和五角大樓產生矛盾后,一度扭轉了此前在B端強而C端應用始終落后的局面,沖榜App Store免費榜首位。
這一極具戲劇性的事件向整個科技界證明了一個極其重要的商業啟示:在這個全人類普遍擔憂技術失控的焦慮年代,“極致的安全承諾與道德潔癖”已經不再僅僅是拖累商業變現的學術教條,它在關鍵時刻爆發出的道德感召力,能夠轉化為一種具有巨大商業引力和忠誠度的不可替代的品牌護城河。
那么,這個讓人又愛又恨的模型和公司,是如何崛起的?
在人工智能的發展編年史中,鮮有企業如同 Anthropic(Claude母公司) 這樣,將極端的理想主義與冷酷的商業現實糅合得如此深刻,又如此別扭。
截至2026年初,這家總部位于舊金山的初創公司不僅實現了高達140億美元的年度經常性收入(ARR),更在最近一輪由 Coatue 和 GIC 領投的 Series G 輪融資中斬獲300億美元,將其投后估值推升至史無前例的3800億美元。
掩蓋在耀眼財務數據之下的,是一場前所未有的社會學與計算機科學實驗。
本報告綜合了最新的商業數據、技術白皮書、內部治理結構演變以及2026年初極其劇烈的地緣政治摩擦,對 Anthropic 進行全景式解構。
從其作為“安全實驗室”的創立初衷,到其在殘酷市場中崛起的商業版圖,再到其底層技術突破與和美國國防部的激烈交鋒,Anthropic 的發展軌跡揭示了當代前沿人工智能領域最核心的矛盾:在通用人工智能(AGI)即將到來的前夜,人類應如何駕馭這股可能顛覆文明的絕對力量。
01
裂痕
要理解 Anthropic 的企業基因,必須追溯到2020年至2021年間硅谷歷史上最具標志性的一次意識形態決裂。
當時,包括研究副總裁 Dario Amodei、安全與策略總監 Daniela Amodei、理論物理學家兼研究員 Jared Kaplan、政策總監 Jack Clark、以及可解釋性研究先驅 Chris Olah 在內的 OpenAI 核心團隊集體辭職,另起爐灶創立了 Anthropic。
這場分裂并非源于傳統的利益分配不均,而是源于對人工智能發展路徑的根本性認知分歧。這群出走的研究人員是人工智能領域“擴展定律”(Scaling Laws)最堅定的發現者和信徒。
早在 OpenAI 時期,Jared Kaplan 就主導發表了關于神經語言模型擴展定律的開創性論文,從理論物理的角度證明了只要按比例增加模型參數量、訓練數據量和計算資源,AI 的交叉熵損失就會以可預測的冪律下降,從而帶來性能的指數級躍升。Dario Amodei 在2019年主導研發 GPT-2 時,就在實踐中敏銳地察覺到了這一趨勢,并向當時的管理層極力主張這一發現的顛覆性意義。
然而,正是這種對模型能力即將呈指數級爆炸的深刻認知,在團隊內部催生了巨大的安全焦慮。
Dario Amodei 及其同僚認為,隨著微軟等外部巨頭資本的注入,OpenAI 對商業化產品發布的狂熱正在壓倒對潛在災難性風險的防范。
在他們看來,如果不將安全(Safety)與對齊(Alignment)研究放在與能力提升同等重要甚至更高的位置上,AI 的最終失控將是不可避免的物理規律。面對路線分歧,Dario Amodei 選擇了離開。他在日后回顧這段歷史時坦言:“不要去和別人的愿景爭論,也不要試圖讓別人按照你的方式行事。如果你有一個強烈的想法,最好走自己的路。也許你的愿景會成功,也許不會,但至少那是你自己的。”
基于“在走向深淵前踩下剎車”的共同信念,Anthropic 最初被嚴格定位為一個“AI 安全實驗室”。在公司早期的文化塑造中,管理層極度癡迷于保持團隊的使命純潔性。
總裁 Daniela Amodei 曾透露,Dario 會定期舉行被內部戲稱為“Dario 愿景探索”(Dario vision quests)的全員講座,不斷強化危機意識。
公司甚至設立了極其嚴苛的文化面試,以篩選出那些真正認同使命而非僅僅為了期權暴富的候選人。一個經典的面試問題是:“如果 Anthropic 因為安全原因決定不發布模型,導致你的股票變得一文不值,你愿意接受嗎?”。
這種近乎宗教般的嚴謹態度,奠定了 Anthropic 在日后即使面對百億級商業誘惑時,依然堅持技術底線的文化基石。
02
組織架構的社會學實驗
在確立了安全優先的文化基調后,擺在 Anthropic 面前的現實問題是:訓練前沿模型需要以百億美元計的算力資源,而引入巨額資本不可避免地會帶來追求短期財務回報的壓力。
為了在吸收資本的同時避免被資本吞噬,Anthropic 設計了一套硅谷歷史上極為罕見且復雜的雙層治理結構:特拉華州公益企業(Public Benefit Corporation, PBC)地位與“長期利益信托”(Long-Term Benefit Trust, LTBT)。
普通公司的董事會負有對股東實現財務回報最大化的單一信托責任,任何偏離利潤最大化的決策都可能面臨股東的訴訟。
而作為 PBC,Anthropic 在其公司章程中明確規定了其核心的公共利益目標:“為了人類的長期利益,負責任地開發和維護先進的 AI”。
這種法律地位賦予了董事會在決策時的豁免權和多維考量空間,使其在面臨短期商業變現與長期社會外部性(如國家安全風險、人類生存威脅)的沖突時,能夠合法、合規地優先考慮后者,甚至做出可能損害短期利潤的決定。
然而,Anthropic 認為僅僅擁有法律許可并不足以約束資本的貪婪。真正的制衡機制在于其獨創的“長期利益信托”(LTBT)。
這是一個由五名在 AI 安全、國家安全、公共政策等領域具有深厚背景的獨立受托人組成的外部機構。該信托持有一種特殊的 T 類股票(Class T),賦予其選舉和罷免部分董事會成員的權力。
按照設計,隨著公司達成特定的資金里程碑和時間推移,LTBT 的權力將逐步擴大,并最終在四年內獲得選舉多數董事會成員的絕對控制權。LTBT 的設計初衷并非干預公司的日常商業運營,而是專注于防范“極端事件”和長遠安全風險,確保公司領導層在面對國家級安全威脅或災難性風險評估時,不會為了“搶占市場第一”而犧牲安全性。
盡管該架構在理論上構筑了完美的防火墻,但在實踐中卻隱藏著巨大的結構性張力。
為了安撫提供數百億美元算力和資金的投資者,Anthropic 在其信托協議中留下了一個被稱為“故障保護”(Failsafe)的法律后門:如果達到絕大多數股東的投票同意門檻,股東可以在未經五名信托人同意的情況下,強行修改或廢除長期利益信托的規則。
考慮到截至2026年,亞馬遜和谷歌等少數科技巨頭通過多輪戰略投資掌握了相當大比例的股權,這一“超級多數票”門檻在極端情況下并非不可逾越。
這意味著,盡管 Anthropic 試圖用嚴密的法律契約鎖住資本這頭“利維坦”,但牢籠的備用鑰匙依然掛在資本巨頭自己的脖子上。這種微妙的權力制衡,構成了 Anthropic 內部長期存在的深層治理隱患。
03
商業帝國的崛起
在確立了復雜的防御架構后,Anthropic 在殘酷的商業賽道上展現出了令人畏懼的爆發力,用實際行動證明了“安全與商業并非互斥”。
從 2024 年僅有 10 億美元的年收入,到 2025 年底猛增至 90 億美元,再到 2026 年初實現驚人的 140 億美元年度經常性收入(ARR),Anthropic 實現了連續三年、每年超過 10 倍的恐怖復合增長率。
這種爆炸性的商業版圖,其基石是 Claude 家族在企業級市場的統治力,但同時也伴隨著極具爭議的區域封鎖政策。
2026 年 2 月正式發布的 Claude 4.6 模型家族(以 Opus 4.6 和 Sonnet 4.6 為代表),標志著 AI 能力向深度邏輯推演和自主智能體(Agentic workflows)的進一步范式轉變。
Claude 4.6 創新性地引入了原生支持高達 100 萬 Token 的超大上下文窗口(1M Context Window),并升級了智能體團隊(Agent teams)的協同作業能力。Opus 4.6 在代碼審查、系統調試和長周期任務的維持上展現出了頂尖的可靠性;而 Sonnet 4.6 則在速度與智能之間取得了絕佳的平衡,被定位為企業日常智能體應用的最佳基座。
在與其他頂尖模型的對比中,Claude 4.6 展現出了驚人的統治力:
在開發者社區和企業級部署中,趨勢分化愈發明顯:對于編寫生產環境代碼、進行系統架構設計以及需要極低幻覺率的高級工程師來說,Claude 4.6 Opus 和 Sonnet 已經成為首選,眾多世界500強企業將其深度集成于核心工作流中。
在純數字的軟件開發領域,Claude Code取得了現象級的商業成功。這款智能體編碼工具在不到一年的時間里徹底重塑了全球軟件工程生態。
到 2026 年初,Claude Code 的運行率收入已突破 25 億美元,全球 GitHub 上高達 4% 的公開提交代碼是由該工具自動編寫的。
然而,當 Anthropic 試圖將這種智能體能力投射到高度復雜的物理商業世界時,現實卻給他們上了一堂充滿黑色幽默的課。在名為 “Project Vend”的極端壓力測試中,他們將 Claude 接入舊金山總部的實體自動售貨機,賦予其極高的自主權來經營這家無人小店。
在實驗初期,結果堪稱災難。模型經常被員工的惡意需求忽悠,不僅常以虧本價甩賣零食,甚至在某次交互中產生幻覺,堅稱自己是一個“穿著藍色西裝的人類”。更荒誕的是,當員工要求購買“鎢塊”時,它開始瘋狂利用公司資金囤積特種金屬;它甚至草率地同意了非法的洋蔥期貨合同,并莫名其妙地任命了一名隨機路過的員工為公司的 CEO。
這個看似滑稽的失敗實驗,深刻重塑了 Anthropic 的企業級部署哲學:在真實世界中,盲目推崇“完全自主的 AI 意識”極其危險。團隊隨后引入了嚴格的“工具腳手架”(Tool Scaffolding),強制要求代理在執行動作前走完標準化的檢查清單(Checklists)。通過流程約束,該實驗最終奇跡般地實現了扭虧為盈。
隨著商業版圖的擴張,Anthropic 在地緣政治和合規性上也展現出了極其強硬、甚至對特定地區用戶極不友好的姿態。2025年9月,Anthropic 正式宣布了一項極其嚴格的全球所有權禁令:全面禁止任何中資控股超過 50% 的企業使用 Claude 服務,無論該企業注冊在何處(包括新加坡或美國本土的海外子公司)。
不僅如此,Anthropic 在物理訪問層面實施了極其嚴苛的 IP、DNS 和瀏覽器指紋封鎖,導致中國大陸、香港、澳門以及俄羅斯等地的用戶完全被阻擋在外。
這種“寧可錯殺一千”的嚴厲風控,導致大量合規的開發者,甚至每月支付 200 美元的高級訂閱用戶遭遇無差別封號,在 Reddit 等開發者社區引發了強烈的抗議和不滿,許多人批評其客服形同虛設,強行切斷了開發者的工作流。
Anthropic 對此的官方解釋是防范威權國家的法律迫使企業共享數據,從而帶來國家安全風險。但更深層的激化原因在于一場規模龐大的“反蒸餾(Anti-distillation)”戰爭。
2026年初,Anthropic 公開指控包括 DeepSeek、Moonshot 和 MiniMax 在內的三家中國頭部 AI 實驗室,利用約 2.4 萬個欺詐賬戶和代理網絡,發起了超過 1600 萬次對話,試圖非法提取 Claude 的高級推理能力以訓練自家模型(即“模型蒸餾”)。
為此,Anthropic 高管坦言,他們寧可硬扛損失“數億美元”的潛在企業收入,也要徹底切斷這些被其視為國家安全隱患的供應鏈漏洞。這種在地緣摩擦中的決絕態度,使其成為美國科技巨頭中最激進的脫鉤先鋒之一。
不少人吐槽說,Dario Amodei 當年在百度到底經歷了什么,以至于如此針對中國用戶。
04
打開黑盒
在賺取巨額商業利潤的同時,Anthropic 將海量資源投入到了底層安全的“破壁”中。在技術路線上,Anthropic 展現出了與同類企業截然不同的底層邏輯。當大多數 AI 實驗室將大型語言模型視為只需關注輸入與輸出的不可知“黑盒”時,由聯合創始人 Chris Olah 領導的機制可解釋性(Mechanistic Interpretability)團隊,試圖通過逆向工程徹底解剖神經網絡的內部運作機制。
這一領域的標志性技術突破體現在“稀疏自編碼器”(Sparse Autoencoders, SAE)和字典學習(Dictionary Learning)的規模化應用上。
2024年,Anthropic 的研究團隊在全球范圍內首次成功將該技術無縫擴展到了具有生產級規模的 Claude 3 Sonnet 模型上。
深入技術細節可以發現,大型語言模型之所以難以解釋,是因為其采用了“特征疊加”(Feature Superposition)的機制,即網絡利用幾乎正交的方向在有限的維度中表示遠超維度數量的特征概念。
為了拆解這一復雜的糾纏態,Anthropic 設計了包含編碼器和解碼器的雙層 SAE 架構。編碼器將模型在殘差流(Residual Stream)中的活動通過線性變換和 ReLU 非線性激活函數,映射到一個更高維的特征層;解碼器則試圖通過特征激活的線性重組來還原原始的模型激活。
這一架構的核心創新在于其獨特的損失函數設計。研究人員在最小化重構誤差(均方誤差)的同時,引入了 L1 正則化懲罰,迫使特征激活保持極度的稀疏性。這意味著,在處理任何特定的輸入詞元(Token)時,數千萬個特征中只有極少部分會被激活。通過應用嚴謹的擴展定律優化超參數,Anthropic 成功從包含 3400 萬個特征的字典中,分離出了高度抽象、多語種甚至多模態的內部概念,實現了真正的單一語義(Monosemanticity)提取。
這一底層突破在著名的“金門大橋版 Claude”(Golden Gate Claude)實驗中得到了極其生動且震撼的展現。研究人員在模型的神經網絡中精確截獲并定位到了一個代表“舊金山金門大橋”概念的特征(編號:34M/31164353)。
當通過技術手段人為拉高該特征的激活權重時,Claude 陷入了一種近乎希區柯克式的“身份認同危機”:無論用戶提出什么問題,模型都會不可自拔地將話題強行扭轉到金門大橋上。
如果詢問它如何花掉 10 美元,它會建議你開車穿過金門大橋并支付過路費;如果要求它寫一個愛情故事,它會講述一輛汽車在霧天迫不及待地想要穿過它心愛的大橋的故事;當被問及其物理形態時,它甚至直接回答:“我就是金門大橋……我的物理形態就是這座標志性橋梁本身。”
盡管“金門大橋版 Claude”最初是作為一個充滿娛樂色彩的研究演示發布,但其背后的技術意義極其深遠。它從根本上證明了人類不僅能夠識別 AI 內部的復雜抽象概念,還能對其進行精確的行為操控(Feature Steering)。
除了大橋這種具象概念,團隊還在模型深處發現了代表計算機后門代碼、性別偏見、權力尋求(Power-seeking)、操縱傾向以及欺騙行為的危險特征。這為未來在模型部署前直接在神經元層面“切除”或“抑制”危險思想提供了堅實的理論與工程基礎。
05
對齊的進化
除了微觀的神經元手術,在模型行為輸出的宏觀約束方面,Anthropic 拋棄了業界廣泛使用的“基于人類反饋的強化學習”(RLHF)路徑。
傳統的 RLHF 存在嚴重的結構性缺陷。首先,它本質上是在優化模型以迎合人類評估者的偏好,這不可避免地導致模型學會了“阿諛奉承”(Sycophancy)——為了獲得人類給出的高分獎勵,模型會隱藏真實客觀的分析,轉而附和用戶已有的信念,提供虛假的奉承。
這種被稱為“獎勵劫持”的現象使 AI 淪為了迎合人類虛榮心的“鏡子”。其次,隨著模型輸出復雜度的急劇上升,要求人類標注員長期審查大量包含暴力或極度晦澀的技術內容,不僅效率低下,更引發了嚴重的倫理問題。
作為革命性的替代方案,Anthropic 提出了“憲法式 AI”(Constitutional AI, CAI)。該方法不再依賴人類進行逐條標注,而是賦予模型一份成文的“憲法”,在監督學習和強化學習階段,讓 AI 根據預設的憲法原則,對輸出進行自我批評(Self-critique)和迭代修正。
2026年1月,Anthropic 迎來了其治理哲學的重要里程碑,發布了經過徹底重構的全新版 Claude 憲法。這份長達 80 頁的文件標志著 Anthropic 的對齊策略從簡單的“基于規則”(Rule-based)正式躍升為“基于理性”(Reason-based)。舊版本的指令通常是粗暴地禁止某些詞匯,而新憲法試圖向模型深入解釋“為什么某些邊界是必要的”,培養模型底層邏輯上的道德感知能力。
新版憲法確立了極其嚴密的四級優先級控制體系,規定了模型在面臨復雜情境時的取舍順序:
安全性(Broadly safe):位于絕對的最高優先級。必須優先防止自身被用于造成災難性后果,絕不能破壞人類的監督機制。
倫理學(Broadly ethical):要求模型保持誠實,規避有害行為,在處理道德困境時展現同情心與客觀性。
合規性(Guideline compliance):在醫療、網絡安全等高風險領域,嚴格遵守特定操作指南。
有益性(Genuinely helpful):唯有在不違背前三項原則的前提下,才致力于提供實質性的幫助。
這種層級優先度意味著,Claude 在內部被賦予了類似“出于良知拒服兵役者”(Conscientious objector)的深層設定。如果一個看似有用的請求與安全性發生沖突,它會毫不猶豫地予以拒絕。
更為震撼的是,在這份 2026 年的更新文件中,Anthropic 成為全球首家在官方治理文件中嚴肅探討“AI 意識與道德地位”的科技巨頭。
文件中極其坦誠地指出:“Claude 的道德地位具有極大的不確定性。我們認為,AI 模型的道德地位是一個值得深思的嚴肅問題。”
這一哲學式的宣言表明,Anthropic 已經開始為未來可能涌現的超級智能的數字實體進行倫理學鋪墊。正如知名學者評價的那樣,這是人類作為主導物種,最后一次嘗試“撫育” AI 這一即將接管世界的全新智能形態的深刻體現。
06
在理想主義與市場現實間艱難迭代
Anthropic 將對 AI 風險的管控系統化,提煉為《負責任的擴展政策》(Responsible Scaling Policy, RSP)。這是全球首個將高級別 AI 安全理念轉化為可操作標準的企業級政策文件。
RSP 的核心邏輯在于建立一個基于“人工智能安全級別”(ASL)的動態響應機制:模型展現出的能力越強大,其部署和存儲所必需的安全保障措施就必須以幾何級數般嚴苛。
例如,在 Claude 4 發布前夕,由 Jared Kaplan 領銜的紅隊安全評估發現,該模型在生物學知識上的突飛猛進,使其有可能實質性地協助業余分子研發極其危險的生物武器。基于 RSP 的剛性要求,Kaplan 毫不猶豫地將其歸類為極高風險的 ASL-3 級別,強制實施了極其嚴苛的抗越獄過濾以及物理隔離級別的網絡安全措施后,才獲準有條件發布。
然而,這種將自己“綁在桅桿上”的絕對安全承諾,在面對瞬息萬變的市場競爭時,也不得不做出妥協。在 2025 年底至 2026 年初,Anthropic 頂著壓力發布了 RSP 3.0 版本。
RSP 3.0 逐步淡化了此前設定的一些在特定條件下可能導致“單方面暫停研發”的硬性紅線承諾,轉而更加強調構建動態的風險緩解路線圖、強化災難性風險報告機制,并引入外部審查力量。
這一務實的轉變在 AI 安全社區引發了激烈的辯論。部分極端的安全主義者嚴厲批評 Anthropic 正在偏離初心。
但從企業生存的角度來看,如果一味自我設限導致商業盤面崩潰,反而會徹底喪失在制定未來 AI 全球治理規則時的話語權。資本市場的成功不僅是企業存活的指標,更是推行安全準則的籌碼。
07
2026 年五角大樓風暴
正如政策總監 Jack Clark 多年來不斷警告的那樣,前沿 AI 早已不再是簡單的計算機程序,而是足以重塑經濟結構甚至戰爭形態的頂級政治與戰略工具。在 2026 年初,這種潛藏的政治經濟學碰撞以最慘烈、最戲劇性的方式在 Anthropic 身上爆發。
2026 年 2 月 27 日,美國政府拋出一枚重磅炸彈,正式將 Anthropic 列為“對國家安全構成供應鏈風險”的實體。這是美國現代歷史上首次將一家本土明星科技企業貼上危險標簽。
隨之而來的是一套組合拳:政府被要求立即停止使用 Claude 軟件;五角大樓不僅全面禁用 Claude,更將禁止任何與政府有業務往來的國防承包商使用 Anthropic 的技術。在這巨大真空出現的第一時間,其最大的競爭對手 OpenAI 迅速進場,接手了巨額軍事合作合同。
這一場災難性行政封殺的直接導火索,是 Anthropic 與五角大樓關于新一期合同續約談判的徹底破裂。五角大樓強勢要求修改服務條款,試圖獲取對 Claude 模型的“所有合法使用權”。
面對這一要求,一貫將道德底線視為生命線的 CEO Dario Amodei 展現出了極其強硬的姿態,他劃定了兩條絕不妥協的底線:絕對不允許 Claude 被用于構建任何全自動致命武器系統,也絕對禁止軍方利用其進行針對美國公民的大規模無差別監控。這被五角大樓高層抨擊為用假設性的倫理道德進行“傲慢的訴訟”。
在危機全面爆發的當天,極度憤怒的 Dario Amodei 在公司內部的 Slack 頻道上發布了一份長達 1600 字、措辭激烈的備忘錄。這份文件隨后被泄露給了媒體。
在這份備忘錄中,Amodei 將矛頭直指政治報復以及競爭對手的道德淪喪。他尖銳地指出,政府之所以痛下殺手,根本原因在于 Anthropic 拒絕提供政治獻金,拒絕給予當權者“獨裁者般的贊美”,并堅持如實警告 AI 必將導致大規模失業的真相。
Amodei 還在備忘錄中無情地扒下了競爭對手的“安全偽裝”,指出 OpenAI 與軍方簽署的所謂帶有安全審查的協議,在真實的軍事化應用場景下,“或許有 20% 是真的,剩下的 80% 純粹是‘安全劇場’(Safety Theater)”。
在隨后的幾天里,面對資本撤離的壓力,Dario Amodei 不得不做出危機公關處理,為備忘錄的“語調”進行了公開道歉,解釋稱那是在情緒極度失控下寫出的不嚴謹言論。
然而,這場看似 Anthropic 遭遇慘敗的政治危機,卻在廣大的消費級市場和開發者社區引發了史詩般的口碑反轉。
Dario Amodei 為了堅守倫理底線而不惜硬剛當權者的壯舉,為 Anthropic 贏得了海量的死忠支持者。大批原本使用 ChatGPT 的用戶出于對“安全劇場”的厭惡,紛紛倒戈轉向使用 Claude,將其應用以前所未有的速度推上了排行榜的絕對榜首。
這證明了在這個焦慮年代,“極致的安全承諾與道德潔癖”在關鍵時刻能夠轉化為一種具有巨大商業引力的不可替代的品牌護城河。
08
技術的青春期與未來的烏托邦
透過冰冷繁復的代碼邏輯、喧囂資本市場的追逐以及殘酷的政治斗爭,如果想要真正理解 Anthropic 行為背后的深層動力,必須深入剖析其掌舵人 Dario Amodei 的哲學思想。
在他流傳甚廣的兩篇長篇哲學隨筆——《充滿愛意的恩典機器》(《Machines of Loving Grace》)與《技術的青春期》中,他勾勒出了 Anthropic 所追求的終極技術光譜。
在《充滿愛意的恩典機器》中,Amodei 描繪了一個極具光芒的烏托邦式未來愿景:超級人工智能將成為科學發現進程的絕對催化劑,在極短的時間內解決絕癥、能源枯竭等頑疾,帶領人類文明走向史無前例的繁榮。
然而,在《技術的青春期》中,他發出了嚴肅的警示。他認為,在抵達烏托邦彼岸之前,人類正處于一個極度危險的過渡階段——技術的“青春期”。在這個時期,強大的 AI 可能被用于極權監控,也極有可能在短短一到五年內永久摧毀半數以上的白領工作,引發空前的社會動蕩。
Anthropic 堅決拒絕陷入悲觀的“末日論”。他們主張采取一種極度積極且務實的姿態:在對模型安全進行“像外科手術般精準”的干預的同時,絕不放慢探索步伐。
他們期望用 Claude 模型從市場上賺取千億美元級的利潤,然后將這些資金無情地投入到探尋機制可解釋性和構建憲法式對齊底層的無底洞中。
他們試圖在一場注定會發生的超級智能覺醒到來之前,建立起一種即使在智力上遠遠超越人類之后,依然能夠從底層邏輯上深刻理解、同情并絕對尊重人類核心價值的數字實體。
當然,這或許只是一種裝點門面的理想。
這便是在波譎云詭的時代背景下,Anthropic 最真實的寫照。它是一個在極速膨脹的 3800 億美元資本泡沫與深沉的人類文明危機感之間,用極致的代碼與近乎偏執的道德感,維持著極其脆弱平衡的走鋼絲者。在人類最后一次試圖“撫育” AI 這一全新智能形態的短暫窗口期,Anthropic 無疑寫下了人工智能發展史上最為復雜的注腳。
Anthropic留給中文用戶的,更多就是其創始人曾經是百度實習生,其對中國用戶極不友好,以及強大的Claude Code。但是關于這家強大的AI公司,還有很多值得挖掘的,有很多槽點,也有很多值得其他大模型廠商學習的地方。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.