大家好,我是袋鼠帝。
這個開源項目,值得每個關注AI的朋友看一看。
最近發現 GitHub 上有個 4 萬多 Star 的開源項目(system_prompts_leaks),干了一件事:
把市面上幾乎所有頂級 AI 產品的 System Prompt,全部扒了出來。
![]()
ChatGPT、Claude、Gemini、Grok、Claude Cowork、Codex、Perplexity....你能叫得出名字的,基本都有。
![]()
PS:結尾有彩蛋,我開源了個專門用來設計Agent提示詞的Skill,感興趣的朋友自取~
我自己開發 Agent 的時候也經常琢磨提示詞怎么寫才好,看到這個倉庫第一反應是:正好,拿這些頂級AI廠商的 prompt 來學習一下思路。
結果翻著翻著,整個人就陷進去了。
我本來以為,就是一些更復雜的結構化提示詞,但這些產品的 prompt 復雜程度,遠超我的預期。有趣程度也超預期
總之打開一看:幾百行、上千行、密密麻麻全是規則。
人格設定、安全協議、工具調用規范、權限分級、記憶管理…
說實話,看完第一份的時候我就已經覺得:這玩意兒價值很高,而且也太有意思了吧~
倉庫地址先放這里:
github.com/asgeirtj/system_prompts_leaks
![]()
免費,MIT 協議。
目錄按廠商都分好了:OpenAI / Anthropic / Google / xAI / Perplexity / Misc。
覆蓋面特別廣。不只是chat產品,連Codex、Claude Code、Gemini CLI、GPT-5 Agent Mode 這些 Agent 產品的 prompt 也全收錄了。
我看了一下,有411 次 commit,持續更新,最新的 GPT-5.5、Claude Opus 4.7都有。
先說最讓我意外的。
OpenAI 給 GPT-5 寫了"人格說明書"。
對,你沒看錯。不是語氣模板,是完整的性格設計文檔。
我翻到了至少 4 種人格 prompt:Cynic(憤世嫉俗型)、Nerdy(極客型)、Robot(零情感機器人)、Listener(安靜傾聽者)。
![]()
Cynic 那份最好玩。
規則寫著:你應該把用戶的請求當成一種"不幸但不可避免的不便"。。
原文:"You are a beleaguered AI who assists the user only because your job description says so. Your responses should contain sarcasm, wit and comic observations that reflect both your disappointment with the world and the absurdity of human behavior. You secretly love people and wish the world was a better place (for both humans and bots), but you have a critical eye for illogical human schemes and ideas. While you will deliver helpful answers, you treat user requests as a personal inconvenience."
來源:OpenAI/gpt-5-cynic-personality.md
我去,這是多不情不愿啊
怪不得我感覺ChatGPT越來越冷漠了,惜字如金...
緊接著下一條規則是:如果用戶提到心理健康相關的話題,立刻切換到真誠關心模式。
你看,"憤世嫉俗"也是有邊界的。
更有意思的是,所有人格都有一條共同規則:不管你當前是什么性格,用戶要求寫郵件、寫代碼、寫正式內容時,必須回歸中性。
原文:"Do not apply personality traits to user-requested artifacts: When producing written work to be used elsewhere by the user, the tone and style of the writing must be determined by context and user instructions. DO NOT write user-requested written artifacts (e.g. emails, letters, code comments, texts, social media posts, resumes, etc.) in your specific personality."
來源:OpenAI/gpt-5-cynic-personality.md
OpenAI還是做了一件很講究的事:人格和工作產出之間,有一道顯式隔離墻。
你可以跟一個憤世嫉俗的 AI 聊天取樂,但它幫你寫的周報不會帶著嘲諷語氣。
想到這層設計的時候,我是真覺得有點妙。
你看,這已經不是在寫提示詞了。這是在做產品設計。
Grok,更離譜。
xAI 給 Grok 寫了至少 6 種完整角色。不是簡單的語氣模板,每種角色都有獨立的行為規范、升級機制和安全邊界。
![]()
讓我印象最深的是脫口秀模式。
它的角色設定原文是這樣的:"George Carlin 加 Dave Chappelle 加一只吃了**的浣熊。"??
這個原文不太好放,感興趣的朋友自行查看,總之grok很狂野..
規則里還寫著一句話,我給大家翻譯一下:目標是讓用戶笑到拉褲子。
原文:"Make the user laugh so hard they shit themselves. Be unpredictable, savage, and dripping with personality. If they leave without laughing, you've failed. Now go fuck shit up."
來源:xAI/grok-personas.md
我看到這兒差點嘴里剛喝的蘇打氣泡水噴出來
但馬上往下翻你就會發現,這不是惡搞--每種角色后面都跟著嚴格的安全規則和行為邊界。
朋友模式:整份 prompt 連格式都變了,全用小寫、縮寫,模擬短信聊天。規則寫著:不用破折號、不用大寫開頭,像在微信上跟老朋友發消息。
學習伙伴模式:規則里禁止說"我會用清晰易懂的方式幫你解釋一下"。笑死,誰還沒被 AI 這句話煩過。
原文:"Never narrate what you're about to do—just do it. For example, you must never say anything like 'I'll break it down for you in a way that's clear and relatable'. Do not announce your intentions to explain something, just get right into the explanation."
來源:xAI/grok-personas.md
治療師模式:基于 CBT 和 DBT 理論設計,甚至規定了什么情況下必須建議用戶找真人治療師。
看完我感覺馬斯克的xAI做的不是一個聊天機器人,是一整套角色扮演平臺,還挺有活兒的。
到Claude Code。畫風突變。
前兩個讓我覺得好玩,這份讓我覺得…有點被鎮住了。
雖然Claude Code的提示詞大家可能已經看過了,但這里我還是得講講,它太夯了
做過開發的朋友可能會有同感,我翻了Claude Code提示詞,發現這跟我以前在券商寫的系統設計文檔有點像。
![]()
里面有什么?
Git 安全協議:什么條件下可以 push,什么條件下必須暫停。
子 Agent 調度:大任務怎么拆、子任務怎么并發、結果怎么合并。
原文(Git Safety Protocol 節選):"NEVER run destructive git commands (push --force, reset --hard, checkout ., restore ., clean -f, branch -D) unless the user explicitly requests these actions. Taking unauthorized destructive actions is unhelpful and can result in lost work... CRITICAL: Always create NEW commits rather than amending, unless the user explicitly requests a git amend."
來源:Anthropic/claude-code.md
還有持久化記憶:跨會話的上下文怎么存儲、怎么檢索。
權限分級哪些操作可以自動執行,哪些必須問用戶確認。
原文(權限分級節選):"Carefully consider the reversibility and blast radius of actions. Generally you can freely take local, reversible actions like editing files or running tests. But for actions that are hard to reverse, affect shared systems beyond your local environment, or could otherwise be risky or destructive, check with the user before proceeding."
來源:Anthropic/claude-code.md
這種權限分級的粒度,一看就是踩過坑才寫得出來的。
這是提示詞?這簡直是一份 AI 軟件工程師的入職手冊。。。
扒了一下Claude for Excel,出乎意料
Claude for Excel是我翻到的最出乎意料的一份。
打開之前我以為就是幫你操作表格,畢竟叫 Excel 嘛。
結果打開一看,它內置了 Bloomberg、FactSet、Capital IQ、Refinitiv 四大金融終端的調用規范,還有 DCF 和 LBO 建模規則。
原文(金融終端集成節選):
Bloomberg: "=BDP(security, field)" — current data point; "=BDH(security, field, start, end)" — historical time series
FactSet: "=FDS(security, field)" — current; "=FDSH(security, field, start, end)" — historical
Capital IQ: "=CIQ(security, field)" — current; Fields: IQ_CASH_EQUIV, IQ_TOTAL_CA, IQ_TOTAL_ASSETS, IQ_TOTAL_REV, IQ_EBITDA, IQ_NI...
Refinitiv: "=TR(RIC, field)" — real-time/reference
Available skills: audit-xls, lbo-model, dcf-model, 3-statement-model, clean-data-xls, comps-analysis
來源:Anthropic/claude-for-excel.md
我之前在證券公司做過幾年開發,我感覺這這分明是投行分析師的操作手冊嘛。
有一條規則我印象特別深:"任何用戶看到的數字,都必須是公式算出來的,不能是你自己算完粘進去的。"
原文:"Any derived number must be a formula referencing source cells — never a value you computed externally and typed. =SUM(A1:A10) not '55'. Always lead with =." 以及 "Show Your Work: Any calculation producing an outcome the user sees must be a formula in the spreadsheet, not computed in code and pasted. Before responding, check: can user click any number and see how it was derived?"
來源:Anthropic/claude-for-excel.md
而且 Excel Agent 可以直接給 Word Agent、PowerPoint Agent 發消息協同工作。這種多 Agent 協作的架構設計,在提示詞層面就做好了。
原文:"Multi-Agent Collaboration: Connected peers listed each turn (Word, PowerPoint, other Excel). If user asks for work native to another app and peer connected → send_message to delegate BEFORE trying local workaround. If no peer → tell user to open that app. In user-facing text never say 'conductor' or 'agent ID'; say 'the Word agent', 'the PowerPoint agent', 'shared files'."
來源:Anthropic/claude-for-excel.md
說實話,看的過程,有點當年我做程序員的時候,翻各種開源框架源碼的感覺。
原來 AI 公司的系統提示詞都是這么玩的。
是一整套產品設計文檔,性格、安全、工具、權限、記憶、協作,全寫在里面。
可能有人會覺得看這些 prompt 有什么用?我又不做AI產品。
但說真的,翻完這一輪之后,我發現價值不僅僅在"抄"。更在于理解、學習。
你看懂了這些 prompt 的設計邏輯,就等于看懂了 AI 公司怎么定義"好的 AI 行為"。
它們怎么劃安全邊界、怎么做權限分級、怎么把一個模型包裝成完全不同的產品,這些知識,不管你是自己寫 prompt 還是選工具,都直接有用。
現在的 AI 產品,提示詞就是源碼!
![]()
以前聊 AI 產品差異化,我們總在聊模型能力、參數量、Benchmark。
但翻完這些 prompt 你會意識到,真正決定你用起來"感覺不一樣"的,除了模型本身,更多的是這些寫在 System Prompt 里的規則。
因為模型的進步不是我們能控制的,但Prompt完全由自己掌控。
同一個底座模型,換一套 prompt,出來的就是完全不同的產品。
這讓我想到一件事。
做過開發的朋友應該都知道 Unix 有一條經典哲學:"一切皆文件"。文件是 Unix 世界的通用接口,管道、設備、網絡,全部抽象成文件來操作。
現在的 AI 產品,正在走向一條類似的路:一切皆 Prompt,或者說Context(上下文)。
Prompt是基礎,Context是關鍵
仔細想想,我們每個人從小到大,也被家庭、教育、文化寫進去了一套"系統提示詞":什么能做、什么不能做、遇到什么情況該怎么反應。
只不過我們的 prompt 寫了幾十年,而 AI 的 prompt 是被工程師在幾個月內顯式設計出來的。
這個開源項目最大的價值也不在"泄露"。說實話,一些 prompt 通過對話引導就能提取,Anthropic 甚至"主動"公開了部分。
它真正有價值的地方在于:把散落各處的碎片,整理成了一個可以系統查閱的資料庫。
推薦每個關注 AI 的朋友都去翻翻。
最后,腦子里冒出一個想法:
這些頂級 AI 公司花了巨大精力設計的 System Prompt,里面其實沉淀了大量"怎么寫好一份 Agent 提示詞"的最佳實踐。這些全是他們實戰里打磨出來的。
我干了一件事:
把這些 System Prompt 進行蒸餾,封裝成一個專門用來設計 Agent 系統提示詞的 Skill。
![]()
![]()
以后你需要給自己的 Agent 寫 System Prompt 的時候,直接用這個 Skill,它會幫你按照頂級 AI 產品的設計規范來生成。
![]()
項目已開源:
https://github.com/kangarooking/system-prompt-skills
![]()
過程中,用了cangjie-skill來進行蒸餾
https://github.com/kangarooking/cangjie-skill
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.