AI生成40行代碼,你掃一眼diff,點下批準。整個流程不超過30秒。
但你有沒有想過:剛才那30秒里,你做了什么?你沒寫代碼,沒設計流程,甚至沒點幾下界面。你只是——判斷了一下。而這個判斷,正在成為軟件開發里最重要的技能。
![]()
行業正在從"執行"轉向"評估"。AI負責寫,人類負責審。這個轉變有個名字,而且不是新詞。Don Norman早在1986年就描述過它。
在《設計心理學》里,Norman提出了人與系統交互時存在的兩個基本鴻溝:執行鴻溝(Gulf of Execution)——用戶想做什么,與如何 figuring out 怎么做之間的差距,按鈕在哪?命令是什么?怎么觸發?以及評估鴻溝(Gulf of Evaluation)——系統做了什么,與用戶是否理解它是否奏效之間的差距,這達到預期了嗎?系統狀態對嗎?結果正確嗎?
幾十年來,UX和開發者工具的核心努力都花在縮小執行鴻溝上。更直觀的 affordance、更清晰的導航、自動補全、語法高亮、文檔——所有這些都指向同一個問題:我該怎么操作?AI Agent讓這個問題變得簡單多了。
當你向Agent描述需求("給這個表單加輸入驗證"),它不會讓你自己 figuring out 怎么做。它直接動手:瀏覽代碼庫、寫代碼、跑 linter、生成 diff 給你。執行鴻溝大幅收縮,坍縮成一個單一界面:提示詞(prompt)。
但它沒有消失。提示詞本身也有執行鴻溝。看似簡單的請求("加輸入驗證")其實充滿歧義:客戶端還是服務端?用哪個庫?錯誤提示寫什么?用戶仍然得懂足夠多的東西,才能把指令下清楚。執行鴻溝被壓縮進了提示詞環節。與此同時,評估鴻溝成了瓶頸。
這個區分很關鍵。復雜度沒有消失,只是轉移了。Agent出現之前,絕大部分時間花在執行上。評估是執行的自然副產品——你寫代碼的時候自然知道它在干什么。現在執行是瞬時的,瓶頸完全轉移到評估側。需要審查的產出量增長速度,遠超可用于審查的時間。這不是漸進變化,而是工作本質的質變。
現在最難的問題不是"我怎么寫這個",而是:這代碼對嗎?最后一個問題以前很 trivial,現在承載了整個交互的重量。
人機協同(Human-in-the-loop, HITL)不是新概念。它是機器學習系統里的成熟原則:在自動化決策循環的某個環節保留人類參與,確保準確性、安全性和可問責性。經典的HITL問題是二元的:人在不在循環里?在Agent工具時代,這個問題已經沒懸念了:在,顯然在。人類審查輸出。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.