![]()
新智元報道
編輯:元宇
【新智元導讀】從4.6到4.7,哪些舊禁令消失了?哪些新紅線被劃下?Claude進化的真相,全藏在它的system prompt更新細節(jié)里。
就在前兩天,Anthropic祭出Claude 4.7的同時,照例公開了Claude 4.7的「馴化手冊」,也就是那份系統(tǒng)提示詞(system prompt)。
![]()
https://platform.claude.com/docs/en/release-notes/system-prompts
Simon Willison在博客中對這份system prompt進行了逐行對比,哪里加了、哪里刪了、哪里改了措辭,全部標了出來。
不僅如此,他還直接在對話中讓Claude「自報家門」,拿到了一份23個工具的完整名單。
![]()
https://simonwillison.net/2026/Apr/18/opus-system-prompt/
他挖出的這些Anthropic自己沒有說的細節(jié),要比官方的公告更有意思。
你每天對話的Claude
背后有一份幾萬字的「馴化手冊」
很多人可能還不知道,Anthropic是目前唯一一家長期公開自己聊天模型system prompt的頭部AI實驗室。
2024年7月Claude 3發(fā)布起,每次模型更新,Anthropic都會同步更新并公布它的prompt,每一版的system prompt都在那里,一路追溯將近兩年。
![]()
從最新的Claude 4.7往前看,Anthropic的system prompt更新依次覆蓋Claude 4.6、4.5、4.1、4、3.7、3.5,一直到Claude 3。
![]()
這意味著Claude是目前唯一一個你可以從文本層面追蹤「它被怎樣調(diào)教」的主流大模型:在這些公開的system prompt中,你可以看出Claude的進化軌跡。
比如,Claude被允許在什么情況下拒絕你,它被要求用什么語氣跟你說話,它在遇到哪些話題時必須踩剎車,等等。
Claude藏了23個工具
而你可能只是和它聊天
大多數(shù)人用Claude只是打字聊天。
這其實是嚴重的大材小用,好比你手里握著一把瑞士軍刀,卻一直在拿它削蘋果。
Simon在博客中還指出,Anthropic公開的prompt其實并不是全貌:它沒有包含提供給模型的工具描述,而這些工具才是Claude真正的能力邊界。
于是,他通過直接在對話中讓Claude「自報家門」,拿到了一份由Claude自述的工具名單。
一共23個工具,涵蓋信息獲取、文件操作、生活服務、社交通訊、記憶與上下文、平臺連接、交互輔助、交互輔助八大場景。
![]()
需要強調(diào)一點的是,這份清單來自Simon讓Claude自報的結(jié)果,并非Anthropic官方發(fā)布的工具白名單,但它與Anthropic當前公開的產(chǎn)品矩陣高度吻合。
更關(guān)鍵的是prompt里新出現(xiàn)的一個機制:tool_search,在4.7的prompt里明確寫道:
在斷定Claude缺少某項能力之前,Claude會先調(diào)用tool_search,檢查是否有一個相關(guān)工具可用但尚未啟用。只有在tool_search確認不存在匹配工具之后,「我無法訪問X」這樣的說法才是成立的。
也就是說,Claude被要求在說「我做不到」之前,先搜一遍自己到底能不能做到。
當一個AI系統(tǒng)掛載了成百上千個工具,不可能在每次對話中都全部加載,按需發(fā)現(xiàn)、按需調(diào)用,才是可擴展的方案。
Anthropic的官方tool search文檔也證實了這一點:
tool search讓Claude可以擴展到處理數(shù)百甚至數(shù)千個工具,并在需要時發(fā)現(xiàn)和調(diào)用相關(guān)工具。
![]()
https://platform.claude.com/docs/en/agents-and-tools/tool-use/tool-search-tool?utm_source=chatgpt.com
再看產(chǎn)品層面的外部信號。
就在4.7發(fā)布的第二天,4月17日,Anthropic推出了Claude Design。這是一款AI設計工具,能用自然語言生成原型、幻燈片和其他視覺物料。
公開報道顯示,在Claude Design相關(guān)計劃披露后,F(xiàn)igma股價一度下跌約6%。
更耐人尋味的是,Anthropic首席產(chǎn)品官Mike Krieger在發(fā)布前數(shù)天剛辭去了Figma董事會職務。
而在4.7的prompt里,工具列表已經(jīng)涵蓋了Claude in Chrome、Claude in Excel、Claude in PowerPoint,再加上Claude Design、Claude Cowork……
大多數(shù)人把Claude當聊天框用,但Anthropic顯然不這么想,它正在把Claude變成一個AI工作操作系統(tǒng)。
你感受到的變化
全寫在prompt里
如果你最近頻繁使用Claude,你可能已經(jīng)有一個模糊的感覺:它好像變了。
以前你丟一個模糊的需求過去,它會追問你三四個問題,現(xiàn)在直接就干了;
以前它的回答經(jīng)常拖得很長,現(xiàn)在短了不少;
以前你說「好了,謝謝」,它還要追一句「還有什么我能幫你的嗎?」,現(xiàn)在不追了。
每一條變化,都預先寫在了prompt里。
比如,4.7新增了一個叫acting_vs_clarifying的段落,當用戶的請求中存在一些未明確的細節(jié)時,通常希望Claude直接做出合理嘗試,而不是先進行詢問。
![]()
當有工具可以用來消除歧義或補上缺失信息時,Claude會先調(diào)用工具來嘗試解決,而不是讓用戶自己去查。
一旦Claude開始處理一個任務,就會把它完成并給出完整答案,而不是做到一半就停下。
后面還跟著一串具體要求:搜索結(jié)果不對?換個詞繼續(xù)搜。多部分問題?每個都回答。搜到了信息?直接用它作答,別讓用戶自己去翻。
Anthropic的官方公告也呼應了這一點:Opus 4.7在遵循指令方面有顯著提升。
關(guān)于回復風格,4.7的prompt新增了一條:
Claude會讓自己的回復保持聚焦和簡潔,以避免過長的回答讓用戶感到信息過載。即便回答中需要帶上免責聲明或補充說明,Claude也會簡要說明,并把大部分篇幅留給主要回答。
關(guān)于不再強行續(xù)聊,也有明確規(guī)定:
如果用戶表示他們已經(jīng)準備結(jié)束對話,Claude不會請求用戶繼續(xù)互動,也不會試圖引出下一輪對話。
把這些變化放在一起看,你會發(fā)現(xiàn)一個清晰的方向:Anthropic在把Claude從「對話助手」調(diào)教成「自主執(zhí)行者」。
部分安全細節(jié)升級
誠實性和抗提示注入更進一步
能力變強了,自主性提高了,那安全呢?
4.7的prompt在安全方面做了一輪系統(tǒng)性升級,而且升級的顆粒度也非常細。
其中變化最大的是兒童安全。
4.6的prompt里就有兒童安全相關(guān)的內(nèi)容。但到了4.7,這個部分被大幅擴展,整個被包裹在一個新的標簽里:critical_child_safety_instructions。
![]()
單從標簽名就可以看出它的優(yōu)先級。
另一個首次被單獨命名處理的議題是飲食失調(diào)。
![]()
如果用戶表現(xiàn)出飲食失調(diào)的跡象,Claude就不應在對話中的任何地方提供精確的營養(yǎng)、飲食或運動建議,不提供具體數(shù)字、目標或分步驟計劃,即便本意是好的也不行。
還有一處細節(jié),4.7在evenhandedness部分新增了一條:如果有人要求Claude對復雜或有爭議的問題只給「是」或「否」的簡短回答,Claude可以拒絕。
![]()
這可能是針對社交媒體上一種很常見的攻擊手法:截圖誘導。即讓AI就敏感話題回答「是」或「否」,然后把截圖斷章取義地傳播。
被刪掉的規(guī)則
是模型進化的證據(jù)
加規(guī)則容易,刪規(guī)則要更難。
因為每刪一條規(guī)則也意味著Anthropic已確信,新模型已經(jīng)在訓練層面解決了某個行為問題,不再需要外部規(guī)則來矯正。
據(jù)Simon Willison的分析,4.7刪掉了好幾條4.6里存在的行為規(guī)范。
第一條:「Claude會避免使用用星號括起來的動作或情緒表達。」
早期Claude有個毛病:聊著聊著突然來一句「若有所思地點頭」或者「饒有興趣地湊上前」,像在演舞臺劇。
這個問題嚴重到需要專門寫一條prompt來禁止,現(xiàn)在這條禁令被刪了。
第二條:「Claude會避說說真的、老實說或直截了當?shù)卣f。」
這三個詞是早期Claude的口頭禪。幾乎每隔幾句就來一個「說真的,我覺得……」,4.7把這條禁令也刪了。
還有一個名稱上的變化:「developer platform」被改成了「Claude Platform」。
![]()
![]()
看起來只是改了個名字,但去掉「developer」這個定語,意味著Claude的平臺定位不再只面向開發(fā)者。
這些prompt的「瘦身記錄」,也是模型被「馴服」的過程記錄:每刪一條規(guī)則,就說明有一個行為問題從「需要外部管控」變成了「內(nèi)在已修復」。
它們合在一起,構(gòu)成了一部有關(guān)Claude的微型進化史。
對用戶來說,這意味著你正在用的AI,可能比上一個版本更「原生地」懂得怎么做一個正常的對話者。
這份公開的prompt
是一種稀缺的行業(yè)透明
我們能讀到Simon這篇博客,這件事本身在AI行業(yè)就是一種稀缺的透明。
OpenAI不公開ChatGPT的system prompt,Google也不公開Gemini的。
Meta的Llama雖然開源了權(quán)重,但chat端的system prompt同樣不透明。
目前,Anthropic是唯一一家持續(xù)公開聊天產(chǎn)品prompt歷史的頭部實驗室。雖然,這次公開中并未給出模型的工具描述,但它仍然做了這個行業(yè)里別人都沒做的事。
這些寫在prompt里的規(guī)則,是真正在每一次對話中執(zhí)行的指令,代表著Anthropic對「Claude應該成為什么樣的AI」這個問題的真實判斷和回答。
你每天跟AI說的每一句話,它怎么接、在哪里拒絕你、用什么語氣回你,全都不是隨機的:背后有一份不斷被修改的指令在控制一切。
目前,只有一家公司讓你看到這份指令長什么樣。
下次跟AI對話的時候,你可能會想:這句話,是它自己想說的,還是被要求說的?
參考資料:
https://simonwillison.net/2026/Apr/18/opus-system-prompt/
https://platform.claude.com/docs/en/release-notes/system-prompts
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.