周三下午,一個程序員第17次向AI助手解釋公司的代碼規范。同樣的接口命名規則,同樣的錯誤處理模式——每次對話從零開始,每次都要付費重新"理解"。
這不是個例。RAG(檢索增強生成)把知識庫變成了開卷考試:Agent帶著"參考書"進考場,考完就忘。真正決定Agent上限的,是記憶架構——它能不能像人一樣學習、整理、進化知識。
![]()
OpenAI聯創Andrej Karpathy最近開源了LLM Wiki,用一個Markdown文件解決了核心問題:如何把零散信息變成AI能推理的知識系統。YC CEO Garry Tan的GBrain項目也在走同一條路,但更強調工程嚴謹性。
人類擅長收集信息,卻 terrible 于維護。瀏覽器收藏夾里的"稍后閱讀"、桌面上的PDF堆——都是數字化石。企業和個人面臨雙重崩塌:知識隨產品政策過期失效,多維關系的手工維護成本高昂。
Prompt Engineering教模型"做什么任務"。Knowledge Engineering教模型"該知道什么"和"怎么運用所知"。LLM Wiki的顛覆在于:不讓模型每次都從原始文檔重新發現答案,而是維護一份持續更新、互相鏈接、能識別矛盾的知識wiki。
知識不再是靜態池塘,而是活的生命體。代碼工作流里,我們要的不只是語法正確,更是風格慣例——"接口優先"還是"原型優先"、偏好的框架、異常處理習慣。這些無法靠單次檢索獲得,只能靠結構化記憶積累。
RAG把書帶進考場。知識工程教會Agent深度學習、做筆記、每周進步。生產環境的杠桿效應,從這里開始分化。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.