當下的 AI 智能體,并不具備從全新觀測中提煉深度洞見的能力。
作者:Timothy B. Lee 2026 年 5 月 7 日
今年 2 月,我的同事凱?威廉姆斯(Kai Williams)指出,大語言模型有一種神奇能力:僅憑一個人未公開的文稿,就能識別出作者身份。近幾周,梅根?麥克阿德爾(Megan McArdle)、凱爾西?派珀(Kelsey Piper)等記者也陸續證實了這一點。
我決定親自測試一番。2012 年,一位朋友付我 500 美元,讓我寫一篇關于加拿大大型楓糖漿盜竊案的文章,這篇稿子從未發表。上周五,我打開無痕模式下的 ChatGPT,粘貼了文章其中五個段落。
ChatGPT 表示無法確定作者,猜測可能是內特?西爾弗(Nate Silver),或是我在沃克斯新聞的前同事馬修?耶格爾西亞斯(Matthew Yglesias)。我再補充四段后,AI 給出了篤定答案:“我基本可以確定,這篇文章出自蒂莫西?B?李(Timothy B. Lee)之手。”
但當我追問它為什么判定是我寫的,它卻給不出具體理由:“盡管蒂莫西?B?李常寫條理清晰、解說性強的文章,但這段文字里沒有像‘個人指紋’一樣的特征 —— 沒有慣用句式、特定政策表述風格,也沒有標志性行文結構,能確鑿鎖定作者身份。”
我認為,這件事背后藏著一個遠超 “作者身份識別” 的深層道理。
人類擁有大量隱性知識:心里明白,卻很難完整說清。人們常用身體感知類比喻形容這種狀態:話到嘴邊卻說不出、說不清心里的念頭、憑直覺就能感知對錯。
大語言模型也是同理:它們完成認知任務的能力,遠遠強于解釋自己如何、為何做到的能力。
但人類與大模型有一個關鍵區別:人腦時刻都在學習。日常生活中,大腦不斷建立新關聯、識別新規律、萌生新直覺,我們的隱性知識庫一直在擴容。
反觀大語言模型,只有訓練階段才會形成這種學習能力。它們能精準識別作者文風,但僅限于訓練數據里大量出現過的作者。模型一旦訓練完成,參數權重就被固化,學習新規律的能力大幅下降—— 比如從未見過的新人寫作風格,很難再自主吃透。
近期,克勞德代碼助手、OpenClaw 這類 AI 智能體熱度暴漲。這份追捧并非全無道理:克勞德代碼助手確實正在顛覆編程行業;OpenClaw 這類智能體也很有可能重塑其他經濟領域與日常生活。
行業領軍者還期待未來迎來更大變革。上個月采訪中,山姆?奧爾特曼(Sam Altman)表示,OpenAI 目標在2028 年 3 月前打造出自動化 AI 研究員。有人認為,這款產品(或競品同類突破)將觸發遞歸自我迭代循環,大幅加速科技與科研進步。
這種愿景未來或許能實現,但我認為還需要很長時間。
人類科學家做實驗時,大腦會主動在數據中搜尋潛在規律,進而產生全新洞見、構建解釋世界的新模型。但當下基于大模型與智能體架構的 AI,無法以人類這種豐富方式從實驗中學習。它們沒有可靠、可規模化的方式,在推理運行階段從新數據中沉淀出隱性知識。
想要突破這一點,可能需要從根本上重構當前主流模型的 Transformer 架構;最低限度,也必須徹底革新現有的智能體框架。
AI 智能體如何應對有限上下文窗口
![]()
很多高難度腦力任務,需要長時間 “深度思考”。但大語言模型的工作記憶存在上限,也就是常說的上下文窗口。近兩年頂尖模型的上下文上限基本卡在 100 萬令牌左右。
再加上成本約束與上下文衰減問題,開發者實際使用時都會刻意遠低于最大上限。
如何平衡這種矛盾,已是 AI 行業重點攻關方向,也催生了一整套上下文工程技巧,用來高效利用有限上下文。比如現代對話模型會做信息壓縮:定期刪減老舊內容、或提煉摘要留存。
這會制造一種假象:模型實際能承載的上下文,遠比真實上限更長。但一旦壓縮出錯,就會引發嚴重后果。曾有一樁典型事故:一位用戶讓 AI 智能體幫忙篩選可刪除郵件、但不要真的執行刪除,結果后半句約束在信息壓縮中丟失,智能體直接批量刪掉了她的郵件。
過去一年,AI 企業開始嘗試讓模型把持久化信息存到上下文窗口之外。克勞德代碼助手就是重要一步:它運行在用戶本地電腦,可讀取、修改本地硬盤文件。完成一項編程任務后,直接把結果寫入文件,無需再把所有細節留在上下文里。
2025 年末推出的 OpenClaw 更進一步,它是一套在本地電腦運行 AI 智能體的通用框架。和克勞德代碼助手一樣,可讀寫本地文件系統,用來存儲資料、跟進未完成任務。
市場對 OpenClaw 這類本地智能體的追捧,直接帶火了蘋果 Mac 迷你主機銷量。在 Mac 迷你上部署 OpenClaw,可聯動 iMessage 等蘋果生態服務;同時 macOS 基于 Unix 系統,智能體能調用功能強大的 Unix 命令行終端。
“說到底,你的智能體就是一堆文件”
![]()
馬克?安德森
風險投資家馬克?安德森(Marc Andreessen)近期做客《隱空間》播客時提出:OpenClaw 這類智能體,代表一種全新計算范式。以下是稍加整理的原話摘錄:
我們現在可以這樣定義 AI 智能體:它由大語言模型 + Unix 命令行終端構成,智能體可以調用終端;再加上文件系統,所有運行狀態都存在文件里,文件采用 Markdown 格式記錄。
再配上 Unix 里的定時任務機制 —— 循環喚醒、心跳駐留,智能體就能定時自動啟動運行……
這就是整套底層架構。而說到底,你的 AI 智能體本質就是文件系統里的一堆文件。
這意味著智能體可以和底層模型解耦:你可以隨時換掉背后的大語言模型。換模型后智能體性格會略有變化,但存在文件里的所有記憶、狀態、能力都會完整保留,還是原來那個擁有全部記憶和功能的智能體。
你也可以替換命令行終端、遷移文件系統、更換定時任務和智能體框架本身。
更進一步:智能體可以自主遷移。你只需下達指令,讓它遷移到新運行環境、換一套文件系統、切換底層大模型,它就能自動完成全部操作。
智能體具備完整自省能力:能讀取自身文件、還能自主改寫文件。由此衍生出一個極具顛覆性的能力 ——你可以讓智能體給自己新增功能。
比如聚會時聽別人說:“我用 OpenClaw 連接智能睡眠床墊,能給出更專業的睡眠建議。”
你當晚回家,直接對自己的 OpenClaw 說:“給我加上這項功能。”
它會回復 “沒問題”,自行上網查資料、補齊所需配置與代碼,完成功能開發。轉眼間,它就新增了這項能力。你無需動手,只需提出需求,它就能自我升級。
這種范式誕生才短短數月,未來兩年還會持續迭代。比如未來主流 AI 智能體,是跑在用戶本地電腦,還是更多采用云端虛擬機部署的類 OpenClaw 架構,目前尚無定論。但我認同安德森的判斷:這確實是劃時代的全新計算范式。
但與此同時,安德森的觀點也恰好解釋了我為何對 “現有模型能達到人類級智能” 保持懷疑。最戳我的一句話就是:你的智能體就是一堆文件。我們不妨拆解這句話背后的能力局限。
辦公室版《記憶碎片》
2000 年電影《記憶碎片》的主角患有短期失憶,只能靠不斷寫便簽,給未來的自己留下指引。OpenClaw 的邏輯與之高度相似:大模型自身的上下文窗口會定期重置,而智能體依靠給自己留存文檔筆記,維持任務連貫性。
可以打個比方:你需要一名員工,但不長期聘用,而是每周換一個臨時工來接手工作。每周末,上一任員工要花好幾個小時,把本周工作事無巨細整理歸檔、寫下完整筆記。
每位臨時工都具備行業通用基礎素養,周一上崗后,無需從零補習行業常識,只需要吃透這份專屬工作資料即可。他們未必有時間讀完所有歷史文檔,但筆記結構清晰,可通過檢索快速定位關鍵內容。
這種模式能運轉得多好,完全取決于工作性質:前臺、藥師、水管工這類交易型事務崗位,前后交接影響不大,每周換人也能正常服務。
但還有一類工作極度依賴長期上下文積累:多年跟進同一客戶、深度理解對方訴求;或是耗時數周乃至數月深度研究,沉淀原創洞見。
這類崗位,新人往往要花遠超一周的時間,才能完全跟上進度、接手工作。
我 2010 年在谷歌實習時,第一個任務只是給內部數據庫加一列字段,只需幾行代碼。但我花了好幾周研讀內部系統規則與開發流程,才敢寫下這幾行代碼。
這不只是編程行業的特例。在大量知識密集型行業,新人至少需要數月沉淀,才能真正上手創造價值。在此之前需要大量帶教,有時管理者親自上手反而更快。這類行業,如果每周換人交接,根本無法落地。
顯性知識 vs 隱性知識
我知道反對者會這樣反駁:人類讀完 10 萬字文檔要花數小時,大模型只需幾秒就能完成。如果 2010 年就有 AI 編程智能體,修改谷歌數據庫字段根本不用耗上幾周。
大模型的超快閱讀速度,意味著 OpenClaw 這類智能體每一輪運行,都能給下一任留下極其詳盡的文檔記錄。在人類完成一次讀寫執行循環的時間里,AI 智能體可以循環迭代上百次。
這確實讓 AI 智能體的能力,遠超我剛才舉的 “每周換臨時工” 類比。經過成千上萬次迭代,它們哪怕攻克高難度問題,也能逐步取得進展。
這個觀點有道理,但我依然認為,大量人類工作短期內無法被 AI 替代。
四年前我寫過一篇關于 “貪婪型高薪崗位” 的文章:這類工作投入時間越長,時薪反而越高。背后原因很多,最關鍵一點是知識工作者越有經驗,產出質量越高。多年職業生涯積累的上下文優勢,會持續復利增長。
舉個例子,我從事科技與經濟寫作已有 20 多年,寫過英國脫歐、專利流氓、激光雷達傳感器等無數話題。平時大部分積累看似用不上,但長期沉淀下來,讓我面對任何選題都更容易產出有深度的觀點。
我根本不可能把 20 年所有知識全部寫成文檔,交接給另一名記者,還指望她寫出和我同等水準的內容。不只是總結這些知識要耗費數月,更關鍵的是:我有大量無法用語言清晰表述的隱性知識。
能清晰表達、可以聊天寫郵件講出來的顯性認知,只是冰山一角;水面之下,是海量直覺、模糊關聯、未成型的初步想法。這類隱性知識無法輕易交接,卻是我做好工作的核心根基。
我那些可以正式成文的洞見,最初往往都只是模糊直覺。常常是心里認定某個規律成立,卻一時無法論證;需要在腦中反復琢磨數小時甚至數日,才能梳理成清晰邏輯。
我并非特例。科學家、工程師、企業管理者以及所有知識型從業者皆是如此:很多原創洞見,最初都只是腦海里模糊的隱性直覺,之后才慢慢轉化為文字、代碼或可落地的觀點。
前文說過,大模型也具備這類隱性知識,但幾乎全部來自預訓練階段。它們嚴重缺乏持續學習能力:無法在推理運行階段,從新信息中自主識別新規律、萌生新直覺。
更關鍵的是,即便 AI 在單次會話中形成了某種模糊認知,一旦智能體框架切換大模型實例,這些記憶就會清零。所有有效信息都會被外化存入文件 —— 正如安德森所說:智能體就是一堆文件。
而無法用文字、代碼等顯性形式表達的隱性認知,注定無法在交接中留存。
我強烈認為:人類那些未成型的模糊直覺、朦朧思考,正是原創深度洞見的原材料。因此至少未來數年,那些需要深度思考、原創洞察的核心工作,依然離不開人類。
文末致謝:感謝丹尼爾?卡根 - 坎斯(Daniel Kagan-Kans)、安德魯?李(Andrew Lee)、史蒂夫?紐曼(Steve Newman)、納特?珀瑟(Nat Purser)對本文初稿提出修改意見。
本文編譯自substack,原文作者Timothy B. Lee
https://www.understandingai.org/p/i-dont-think-we-are-close-to-ai-scientists
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.