2009年,Hilary Mason在一場演講里放了一張圖:數據科學維恩圖。技術、數學、領域知識,三圈交集。十五年過去,這張圖被她親手推翻——不是因為錯了,是因為不夠用了。
現在她做AI游戲平臺Hidden Door,卻在QCon AI對著一屋子"嚴肅工程師"講產品。開場就自嘲:學機器學習那會兒太冷門,派對上跟男生聊研究方向,對方聽完轉身就走。從學術圈逃出來,做過bit.ly首席科學家,見過社交媒體的瘋狂年代。她的核心判斷很直接:AI產品正在制造一場工程師的"存在危機",而解決它需要的不是更多代碼,是全新的思維框架。
![]()
從"確定性工程"到"概率性思維"
![]()
傳統軟件工程建立在確定性之上。輸入A,輸出B,單元測試通過,上線。AI產品徹底打破這個邏輯。Mason說,現在寫代碼時,你得同時管理"它可能對的"和"它可能錯的"兩種狀態,而且兩種都是常態。
這種轉變的痛苦是真實的。工程師花了職業生涯學習如何消除不確定性,現在卻被要求擁抱它。更麻煩的是,用戶不會給你概率分布圖——他們只看到一個結果,要么滿意,要么憤怒。產品層必須把這種概率性封裝成"看起來像確定性的體驗",這是全新的架構挑戰。
Mason的bit.ly經歷在這里變得 relevant。短鏈服務看起來簡單,背后是實時點擊流分析、異常檢測、推薦算法。2008年做這些,沒有現成的TensorFlow,沒有預訓練模型,每一行特征工程都是手寫的。她說那段經歷教會她一件事:數據產品的價值不在算法復雜度,在"用戶能不能立刻理解這東西有什么用"。
"人類考量"是最難的棧層
Mason拋了一個尖銳的觀察:技術棧圖里,最底層是計算、存儲、模型,最頂層畫了個框叫"人類考量"(human considerations),然后標注——這是最難的部分。
為什么?因為前面所有層都有文檔、有最佳實踐、有可復用的模式。但"人類考量"意味著:用戶會在什么場景下憤怒?什么輸出算"有毒"?創意作品的版權邊界在哪?這些問題的答案每天都在變,而且因產品而異。
她舉了自己的例子。Hidden Door做AI驅動的虛構世界探索,用戶輸入任何想象,系統生成敘事。這里的人類考量堆成山:IP授權怎么談?用戶生成內容誰擁有?如果AI生成了跟某本小說過于相似的情節,算抄襲還是致敬?沒有標準答案,只有持續談判。
Mason的原話是:「我們還在用同一個詞'AI'指代完全不同的東西,這導致所有對話都混亂不堪。」她特意保留了一張新聞截圖當道具,標題大概是"AI顛覆一切",旁邊配著廣告。她說這就是技術領導者的日常——所有人都在談AI,但沒人說清楚到底在談什么。
架構的新核心:上下文管理與品味
如果概率性思維是底層邏輯,"人類考量"是頂層約束,那中間的技術架構變成什么樣?Mason的答案很具體:上下文管理、系統思維、好品味。
上下文管理是她強調的新能力。大模型沒有記憶,每次調用都是獨立的。產品要讓人感覺"懂我",必須在系統層維護長期狀態——用戶偏好、對話歷史、世界設定。這不是緩存策略,是產品設計的核心定義。Hidden Door里,用戶可能連續玩幾周同一個故事線,系統怎么保持敘事一致性?這問題沒有現成方案。
![]()
系統思維是老詞新用。Mason的意思是,工程師不能再只盯著自己的模塊。AI產品的故障模式是連鎖的:提示工程的小改動可能觸發下游評估標準的偏移,數據管道的延遲會放大為生成質量的抖動。她形容這是"在迷霧中修飛機"——系統永遠在運行,你永遠無法完整測試。
最刺耳的是"好品味"。Mason說這個詞時帶著歉意,但堅持要用。在概率性系統里,沒有正確答案是確定的,決策依賴判斷。什么提示模板更好?哪個微調方向值得投入?這些選擇沒有A/B測試能完全覆蓋,最終回到人的審美和經驗。她說這是工程師最不適應的部分——承認有些決策無法被客觀度量。
職業身份的重構
Mason對在場工程師的處境很直接:「你們正在經歷一場存在危機。」她解釋,職業身份建立在"我能控制復雜度"之上,現在復雜度本身變得不可控。不是技術變難了,是難的方式變了。
她的建議分兩層。對個體:接受"部分可控"是常態,重新定位自己的價值——從"寫沒有bug的代碼"轉向"設計能優雅失敗的系統"。對組織:招聘和晉升標準必須改,現在需要的人要能同時跟產品經理爭論倫理邊界,跟設計師討論交互的"不確定性感知",跟法務解釋為什么模型輸出無法完全審計。
她提到2009年那場演講的后續。當時有人批評數據科學維恩圖把"黑客技能"和"數學統計"并列,貶低了后者的深度。十五年后再看,Mason覺得批評有道理,但方向錯了——真正的變化是,"領域知識"那圈膨脹到吞掉了其他兩圈。做AI產品,不懂用戶場景、不懂商業約束、不懂文化語境,技術能力再強也是盲人摸象。
游戲為什么是嚴肅的技術訓練
回到開場的問題:為什么一個做游戲的來QCon AI?Mason的答案是,游戲是AI產品最極端的測試場。
實時交互、開放結局、情感投入、創意生成——這四個詞疊加,幾乎覆蓋了AI產品的所有難點。用戶不會容忍延遲,不會接受重復,不會對"機器感"有半點寬容。Hidden Door的選擇是擁抱約束:只做虛構世界,用IP授權框定內容邊界,用游戲機制引導用戶預期。這些產品設計決策,和技術架構同等重要。
她說了一個細節:團隊花了大量時間調"敘事節奏"——不是生成質量,是生成的時機。什么時候讓AI介入?什么時候留白?這問題沒有論文可抄,只能靠迭代和直覺。這就是她說的"好品味"在工程中的落地。
Mason最后沒有給預測。她說現在的問題比答案多,而"框定正確的問題"本身就是技術領導者的核心工作。她留下的畫面是那張被廣告包圍的"AI顛覆一切"新聞截圖——混亂、噪音、真實。技術人習慣尋找確定性,但接下來幾年,可能得先學會在不確定中做決策。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.