![]()
作者 | Leela Kumili
譯者 | 明知山
LinkedIn 推出認知記憶智能體(Cognitive Memory Agent,CMA),作為其生成式 AI 技術棧的組成部分,旨在構建具備狀態感知與上下文理解能力的 AI 系統,使其能夠在交互過程中留存并復用知識。該系統主要用于支撐招聘助手(Hiring Assistant)等應用,解決了大語言模型工作流中的一個核心問題:缺乏狀態記憶,進而導致無法跨會話保持連貫交互。
CMA 充當應用智能體與底層語言模型之間的共享記憶基礎設施層。應用智能體無需通過重復提示詞來重建上下文,而是通過這套專用系統來實現記憶的持久化存儲、檢索與更新。這既實現了跨會話連貫的交互,減少了冗余推理,也能在用戶上下文持續變化的生產環境中提供更優質的個性化體驗。
![]()
會話記憶層示意圖(來源:LinkedIn 博客文章)
該架構將記憶劃分為三個不同層級。情景記憶(Episodic memory)用于捕獲交互歷史與對話事件,讓智能體能夠回憶過往的交流內容。語義記憶(Semantic memory)存儲從交互中提煉出來的結構化知識,支持對用戶、實體及偏好等持久化信息進行推理。程序記憶(Procedural memory)對已習得的工作流程與行為模式進行編碼,幫助智能體優化任務執行策略。三層記憶協同作用,使智能體的行為從單次響應升級為長期自適應演進。
LinkedIn 工程師 Xiaofeng Wang 在一篇帖子中指出:
記憶是構建生產級智能體最具挑戰性、同時也最具價值的核心模塊之一,它能夠實現真正的個性化、交互連續性與規模化適配。
CMA 在多智能體系統中同樣扮演著關鍵角色。與讓每個智能體各自維護獨立上下文不同,CMA 提供了一個共享記憶底座,讓負責規劃、推理與執行的各類專業智能體可以共同訪問。這一共享層減少了狀態冗余,提升了協作效率,并確保分布式工作流輸出結果的一致性。
從系統層面來看,CMA 集成了多種檢索與生命周期管理機制。近期上下文檢索用于保障短期相關性,語義搜索則支持對長期歷史交互的調取。通過摘要進行記憶壓縮有助于控制存儲容量增長,并在規模化場景下維持系統的性能。這些機制也帶來了關鍵的工程挑戰,包括相關性排序、過期內容管理以及不斷演變的用戶上下文的一致性維護。
LinkedIn 杰出工程師 Karthik Ramgopal 強調了智能體系統向持久化上下文轉型的重要性,他表示:
優秀的智能體 AI 不是無狀態的:它會記憶、適應與積累。實現這一目標的核心能力之一便是突破上下文窗口限制的記憶能力。
在運營層面,持久化記憶系統帶來了分布式系統中經典的權衡問題。確定需要存儲哪些內容、何時進行檢索以及如何處理過期數據已成為保障系統正確性的核心問題。
MLOPS 數據工程師 Subhojit Banerjee 強調:
緩存失效是計算機科學中公認的難題之一,很高興你們明確提出了這一點。提取這類記憶的挑戰在于如何準確識別情景邊界、處理內容時效性和解決沖突。
在招聘等面向用戶的應用場景中,LinkedIn 還將人工校驗融入工作流程。這種人機結合的方式能夠確保 AI 生成內容始終貼合用戶意圖與業務需求,尤其適用于高風險決策場景。
CMA 體現了 AI 系統從無狀態生成向有狀態、記憶驅動的智能體這一更廣泛的架構轉變。LinkedIn 將 CMA 定位為構建自適應、個性化、協作式智能體系統的橫向平臺。這一方向也凸顯出業界日益增長的共識:生產級 AI 系統并非僅由模型決定,而是由圍繞模型構建的記憶、上下文管理及基礎設施層共同定義。
查看英文原文:
https://www.infoq.com/news/2026/04/linkedin-cognitive-memory-agent/
聲明:本文為 InfoQ 翻譯,未經許可禁止轉載。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.