![]()
舊金山有一家叫Cluely 的初創公司,做的是給打工人開會、面試、寫代碼時實時偷看 AI 答案的工具。他們有兩條廣告語,一條是“你再也不用思考了”(Stop thinking),一條直接叫“思考的終結”(End of thinking)。
我看到這兩句話的第一反應不是震驚,反倒覺得它們很誠實,而且抓住了這個時代的時代精神。
誠實在哪?誠實在硅谷已經準確判斷了,這個時代真正能賣出去的東西,已經不是“讓你更聰明”。那種話聽上去高級,但產品做不到。
真正能賣出去的是“讓你不用聰明”。這兩件事不是程度差別,是方向相反。前者要求你投入摩擦,后者承諾幫你繞過摩擦。
今天這篇文章,想說的是一件比“AI 讓人變笨”更黑色一點的事:
AI可能沒有讓你變蠢,它只是讓你失去了變聰明的那段過程。
我下面會反復用一個詞來指稱這種狀態:偽智能。需要先把這個詞的意思講清楚,因為它的重音不在AI 那一邊,在人這一邊。
偽智能不是AI 輸出的內容假。AI 大多數時候輸出的內容是不假的,而且越來越不假。偽智能是一個人借助 AI 呈現出一種看似聰明的狀態,卻沒有經歷聰明背后必需的那段訓練。
學生交上來的論文、CEO 看到的市場分析、醫生收到的診斷建議、政府收到的政策報告,都“看起來對”。“看起來對”和“是對的”之間,差著一整個思考過程。“看起來聰明”和“真的聰明”之間,差著一整段沒人愿意走的訓練。
聰明從來不是一個狀態,是一種習慣。一個人不是因為知道了答案就變得聰明,是因為反復經歷了“自己摸到答案”的那個過程,才長出了下一次還能摸到答案的能力。AI 把過程消掉之后,結果還在,能力沒了。
這件事,在三個層次上同時展開。第一層是個體的認知投降,第二層是組織和教育的算法塌縮,第三層是一個不懂技術的政府,把整個文明的判斷力外包給一個三分之一到九成時候出錯的系統。
下面我們一層一層來。
一、認知繳槍:當你不再是判斷的來源
2015 年,赫爾辛基阿爾托大學(Aalto University)商學院的埃斯科·彭蒂寧(Esko Penttinen)教授注意到一件怪事。芬蘭一家頂尖金融公司里,一款用來加速會計師工作的關鍵軟件正面臨被廢棄。問題不是它運行得不好,問題是它運行得太好了。
這款軟件負責自動化處理固定資產管理的會計工作,幾乎沒有出過錯。但其中一位會計師告訴彭蒂寧:“當這份工作被自動化之后,你就不會再開始深入思考事物的本質了。”關鍵技能正在變成一種“丟失的能力”。公司高管震驚到,最后的決定是把這款完美運行的軟件停掉,重新教員工固定資產管理會計的原理。
為了讓公司活下去,這款軟件必須死。
這個故事后來被收進彭蒂寧參與撰寫的一篇研究論文,題目就叫《技能侵蝕的惡性循環:認知自動化的案例研究》(The Vicious Circles of Skill Erosion)。這篇論文是一個很早期的預警:當機器開始接管那些原本由人來思考的環節,人不會自動轉去思考更重要的事,人會停止思考。
這個判斷在2024 年被一組實驗數據精準確認了。
賓夕法尼亞大學沃頓商學院的Steven Shaw 和 Gideon Nave,設計了一個非常巧的實驗。他們讓一組志愿者在 AI 協助下回答有難度的問題,故意在 AI 的答案里隨機插入錯誤。結果分兩種情況:
當AI 給出正確答案時,使用 AI 的志愿者表現優于完全靠自己的對照組。這是大家預期的結果。
當AI 給出錯誤答案時,使用 AI 的志愿者表現遠遠低于對照組。也就是說,他們沒能識別出 AI 在胡說,他們直接采納了。Shaw 和 Nave 給這種狀態取了一個名字:認知投降(cognitive surrender)。
這個名字很準。它和“認知卸載”(cognitive offloading)區別很大。認知卸載是說“這件事我讓工具去做”,前提是你還在判斷“這件工具的輸出靠不靠譜”。認知投降是說“判斷這件事我也讓工具去做”。前者你還是大腦,后者你只是一個傳聲筒。
AI 越像一個聰明人,人就越容易忘記它只是一個概率系統。
最危險的不是AI 錯,是 AI 錯得很自信、很流暢、很有條理。一個明知道自己可能錯的工具會讓人保持警惕,一個看起來從不犯錯的工具會讓人完全松手。Cluely 那句廣告語之所以能說出來,是因為他們已經看清楚:用戶最想要的不是更聰明的助手,是一個讓自己可以徹底松手的對象。
但真正讓我覺得這件事必須被寫下來的,是另一個層次的代價。代價不在于使用AI 的人在某次任務中錯得更多,而在于他們正在失去未來某天獨立做對這件事的能力。
這就要談一件公眾號讀者很少有人提到的事:很多被認為是低價值的工作,其實是高價值能力的訓練場。
初級律師查案例,不是為了找到那個案例,是為了在翻閱幾百份案件中長出“哪些細節會決定勝負”的直覺。
年輕分析師整理資料,不是為了交一份表格,是為了在數據里慢慢摸到“這個行業的真正機制是什么”。
程序員調 bug,不是為了讓程序跑起來,是為了在反復定位錯誤中長出“代碼在哪些地方最容易壞”的判斷力。
編輯改稿,不是為了讓句子更順,是為了在改別人的文字中長出自己寫文字時不再犯同樣錯誤的本能。
學生寫作文,不是為了交一篇作文,是為了在卡住、推翻、重寫的過程中,把模糊的感覺變成清楚的語言。
這些工作有一個共同特征:它們看起來低效,但它們提供的是適度困難(desirable difficulty)。這是 1990 年代加州大學洛杉磯分校的認知心理學家羅伯特·比約克(Robert Bjork)提出的概念,后來被幾百項研究驗證:學習時如果完全沒有摩擦,大腦不會留下深的痕跡;只有在一定程度的掙扎中,長期記憶和遷移能力才會形成。
AI 現在干的事,正好是把這一類工作整段整段吞掉。它不是從工作鏈條的最高端開始替代,它是從最底端、看起來最不重要的環節開始替代。但被吞掉的恰恰是判斷力賴以形成的那段路。
我之前在一篇叫《AI 折疊》的文章里寫過一句話:算法最先拿走的,不是你的工作,是你工作里最有成長性的部分。
那篇文章當時是從分配角度講的:誰在算法上游,誰在算法下游。今天再回頭看,這件事比我當時寫的更徹底。芬蘭那批會計師沒有被裁,他們只是不再思考了。Wharton 實驗里那批志愿者沒有失業,他們只是把判斷這件事讓出去了。AI 不是搶走了你的工作,是搶走了你工作里那個讓你變厲害的環節。
工作還在,人還在,變厲害的可能性沒了。
二、算法單一文化:當所有人借同一個外腦思考
英國保守派歷史學家尼爾·弗格森(Niall Ferguson)給當下這個時代起了一個名字,叫“偽智能”(pseudo intelligence)。他最初用這個詞,是描述大學里學生用 AI 代寫論文造成的假智力表現:交上來的東西看起來很專業,實際背后沒有任何真正的認知工作。
弗格森用得很窄。我們這篇文章想把這個詞的范圍拉大,因為同樣的現象正在從教室擴散到整個組織世界,而且在組織層產生的后果比在個體層更難逆轉。
先說一組數據。
2024 年,Meta 聯合兩所大學的研究團隊發表了一篇研究,掃描了當時市面上 21 個最先進的大語言模型(包括 GPT-4、Claude、Gemini 等),測試它們對常見問題的回答。結論是一個讓人沉默的詞:算法單一文化(algorithmic monoculture)。
這 21 個模型在面對同一個問題時,給出的答案在結構、立場、用詞上呈現出強烈的趨同。
這不是巧合。這些模型大量訓練數據重疊,對齊流程相似,人類反饋來源接近。它們在底層是同一種模型的不同變體。
那么問題來了:當全世界幾億人在用這21個模型問同一類問題、改同一類文檔、寫同一類報告、做同一類決策時,會發生什么?
麻省理工學院媒體實驗室(MIT Media Lab)的納塔利婭·科斯米納(Nataliya Kosmyna)博士給了一個具體回答。她帶領團隊研究使用 ChatGPT 寫論文的學生,對比只用搜索引擎的學生和完全靠自己寫的學生。結論是,使用 AI 的小組寫出的論文“非常同質化,它們都非常相似”。這些學生反復聚焦在更狹窄的觀點集合上,創造性顯著降低。
科斯米納還用腦機接口監測了這些學生的大腦活動。使用ChatGPT 的學生,與研究主題之間形成的神經連接更淺,批判性思維和長期記憶的形成都受到削弱,而且這種削弱程度甚至超過了用谷歌搜索的學生。
這就是偽智能在組織層的形態:輸出看起來更多元,實際是同一個聲音的回聲。每個人都覺得自己用AI 拿到了獨家見解,實際上幾億人在拿到幾乎一樣的見解,只是措辭略有差異。
谷歌今年推出的AI Mode 把這個過程做到了極致。過去你搜索一個問題,谷歌給你十條藍色鏈接,你自己點開幾條,自己判斷哪個可信、哪個值得深讀。現在你搜索同一個問題,谷歌直接給你一段 AI 生成的總結。你看到的是 AI 決定讓你看到的內容。剩下的鏈接,你不會再點。
我以前寫過一篇文章叫《不是AI使人變笨》。當時的核心判斷是:社會正系統性地把獎勵從“深度思考”轉向“煽動情緒”。
AI 出現之后,這個獎勵機制完成了最后一塊拼圖:現在連“煽動情緒”都不用你自己干了,模型替你干。你只負責按下生成按鈕。
這就引出了海德格爾在1953 年那篇著名演講《技術的追問》里講過的一個判斷:技術真正的危險不是它本身,是它把整個世界揭示成可調度、可計算、可優化的資源。在他看來,技術不是中性工具,技術是一種“看世界的方式”。一旦人類開始用這種方式看世界,森林就不再是森林,只是木材儲備;河流就不再是河流,只是水電潛力。
AI 是這條邏輯走到今天最干凈的樣本。它把語言變成可調用資源,把知識變成可調用資源,把觀點變成可調用資源,把品味、風格、創意變成可調用資源,最后連“像一個聰明人在思考”這件事本身,也變成了可調用資源。
當一切都變成可調用,有一件事會被悄悄消滅:停下來真正理解一件事的意愿。
因為理解很慢、很不經濟、很不能被復用。它在一個崇拜效率的系統里沒有位置。
偽智能不是被強制接受的,是被效率本身篩選出來的。當你周圍每個人都用AI 三十秒生成一份報告、十分鐘寫完一篇文章、一小時做完一份方案,你堅持自己花三天去理解一件事,你會被認為是浪費時間的人。系統不會獎勵你,系統會淘汰你。
這就是偽智能的第二層意思:它不只是一種使用方式,它正在變成一種環境壓力。當所有人都借同一個外腦思考,世界不是變得更聰明,是變得更整齊。
![]()
三、把文明外包給一個一半時間會犯錯的系統
柏拉圖在《斐德羅篇》(Phaedrus)里講過一個埃及神話。
文字的發明者圖特(Theuth)把這件禮物獻給國王塔穆斯(Thamus),聲稱它可以增強人的記憶和智慧。塔穆斯回答:不,這只會讓人依賴外部符號、削弱真正的記憶。人們將看起來知道很多,實際上只是擁有許多外部記錄。
兩千五百年之后,塔穆斯的預言每隔幾代就被重新激活一次。書寫讓人擔憂記憶,印刷讓人擔憂專注,廣播讓人擔憂嚴肅,電視讓人擔憂深度,搜索讓人擔憂理解。每一次新工具出現,都有人重述塔穆斯那句話,而每一次,這種擔憂都被實踐部分證偽、部分證實。
AI 讓人擔憂的是最后一件事:判斷力本身。
而這一次的特殊之處在于,前幾次的工具替代的是某種能力,這一次的工具替代的是判斷。能力丟了可以重新練,判斷讓出去了,你連“這次讓出去得對不對”都沒法判斷。
英國工黨政府2025 年公布了一份《人工智能行動計劃》。計劃的核心是政府聘請的科技投資者馬修·克利福德(Matthew Clifford)提出的:通過“全方位數字化”,在公共部門盡可能普及 AI,據稱可以為國家節省 460 億英鎊。
報告里有這樣的語言:AI 將縮短等待時間、識別瓶頸、讓公共服務“感覺更具人情味”,甚至可以在監獄暴亂發生之前就將其制止。
不過,英國小說家伊萬·莫里森(Ewan Morrison)則認為:政府在把一個錯誤率在33%到90%之間的東西,引入醫療、軍事、教育這些它最不該被引入的領域。
我們沒有在擁抱技術。我們在讓一個錯一半時間的系統替我們做最重要的判斷。
更荒誕的是,做出這個決定的人,大多數自己并不懂這個系統是怎么運作的。他們看到的是PPT 上的省錢數字,是供應商演示里那些精挑細選的成功案例,是其他國家正在做同樣的事所制造的緊迫感。
他們沒有能力問出最基本的反問:這個系統在什么情況下會失敗?失敗的代價由誰承擔?如果我們離不開它了再發現它有問題,有備份方案嗎?
當被治理者懂技術、治理者不懂技術,這件事會出現一種奇特的反轉:技術變得像魔法。一個不懂魔法的人怎么治理魔法?他只能信任那些自稱懂魔法的人。
這種狀態不是沒有反例。前Facebook 工程師格奧爾格·佐勒(Georg Zoeller)現在駐新加坡,擔任新加坡政府的技術顧問。他觀察到的新加坡是一個不同的樣本:技術決策由懂技術的人做,引入 AI 的姿態是工程性的、計算代價的、保留備份的,而不是宗教性的、押注式的、不可逆的。
新加坡的樣本意義在于:另一種治理姿態是可能的,一個國家可以認真使用 AI,同時拒絕相信 AI。這件事在英國、在美國、在歐洲大部分國家,都沒有成立。
今天看下來,這件事在加速,但加速的方式比我當初寫的更黑色。勞動力還沒來得及組織起反抗,已經先把自己的判斷力交出去了。資本不需要剝奪工人的反抗能力,工人正在主動放棄。政府不需要壓制公民的判斷力,公民正在主動外包。
這讓我想起1909年英國小說家E.M.福斯特寫過一篇短篇小說,叫《機器休止》(The Machine Stops)。故事設定在一個高度依賴一臺巨大機器的未來社會,人們的衣食住行、社交、教育、娛樂都通過這臺機器實現。久而久之,人們忘記了機器是怎么運作的,也忘記了它是怎么修理的,他們開始把它當作神。
故事的高潮是機器開始出故障。但人們不把這看作危機,而看作神圣的智慧,他們已經把機器變成了不可質疑的對象。等他們終于意識到機器真的會停下來時,已經沒有人記得怎么修了。
這本小說寫于1909 年。福斯特那時候沒有計算機、沒有互聯網、沒有 AI。他描寫的不是技術,是人和技術的一種關系,一種當人完全依賴一個自己不再理解的系統時,會發生的事。
一個不懂技術的政府,把決策外包給一個不懂世界的模型。這不叫治理,這叫賭博。
四、把變聰明的機會留下來
有觀察家認為,“如果我們正在變得越來越笨,那我們幾乎不能把責任推給 AI。這都是我們自己造成的。”
讀到這句話的時候我有點不同意。
把責任推給自己聽上去很有道德感,但這是另一種偷懶。變笨從來不是個人選擇,是一整套獎勵機制、政策導向、商業模式、教育體制合謀出來的結果。當你周圍每個人都在用AI 三十秒完成你需要三天才能完成的事,當你的老板拿著 AI 生成的方案問你“為什么這周只交了一個想法”,當你的孩子告訴你他班上每個人都在用 ChatGPT 寫作業,你獨自一個人選擇“親自思考”是一種奢侈,而不是一種美德。
真正的問題不是“我們怎么變得不那么依賴 AI”。真正的問題是“我們怎么重新設計一個獎勵思考的環境”。
這件事不能靠個人意志解決。學校能不能在某些課程里強制下線?公司能不能保留一部分必須人工完成的環節?政府能不能在最敏感的決策領域立法限制AI 介入?這些都是制度問題,不是道德問題。
但在制度回應到來之前,每個人能做的有限的一件事是:把判斷權留在自己這里。不是不用AI,是用了之后還要再過自己一遍。不是抗拒效率,是知道有些事情慢一點是值得的。不是回到沒有 AI 的過去,是在有 AI 的世界里,守住一塊不讓 AI 進來的地方。
正如麥克盧漢所指出的,每一種新工具都會讓某些東西過時,讓某些東西復活。AI 讓“知道答案”過時了。它復活的應該是什么?
應該是提出問題的能力。判斷答案是否值得相信的能力。在沒有答案的地方繼續往前走的能力。這些是AI 永遠不能代替的能力。
但前提是,你得還留著它們。
偽智能時代真正稀缺的,不是答案,是還在思考的人。【懂】
經叔最近做了一個網站:https://budongjing.com
人肉篩選挖掘的硬核優質內容及深度原創,重點關注科技、文化、財富、權力四大要素以及它們之間的互動與影響。網站定價1999元/年,目前內測優惠價1299元/年,感興趣的讀者可以加經叔微信訂閱。
另外,歡迎加入經叔的知識星球。在這里,我們拒絕無用的焦慮,只談底層的邏輯與實戰的干貨。我會結合最新的AI前沿動態、深度的商業創新分析(如一人企業的構建)和獨特的文化思潮(如麥克盧漢的媒介洞察),幫助大家把握時間窗口。
我是不懂經的經叔,國內最早翻譯介紹了納瓦爾的《如何不靠運氣獲得財務自由》,以及影響了納瓦爾、中本聰、馬斯克等大佬的《主權個人》。
不懂經知識星球,眾多百萬粉絲大V、千萬及億萬富翁訂閱。專注分享一人企業、一人創投主題,關鍵詞:AI、IP、創投、科技及商業前沿的高杠桿內容。
![]()
愈懂愈自由
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.