承認吧,你正在失去讀完一篇長文的能力。
面對一份五十頁的PDF報告,或者深度分析長文,你的肌肉記憶是不是已經變成了順手拖進AI對話框,讓它給你總結核心觀點。甚至連眼前這篇文章還沒讀完,就已經跑到評論區吐槽作者為啥寫這么長,然后@元寶來份“省流版”了。
看著屏幕上元寶給出精煉總結,你感到一陣莫名的滿足,覺得自己已經充分駕馭了最前沿的AI,但你有沒有想過,在這個看似高效的過程中,你的大腦像溫水煮青蛙一樣慢慢“退化”。
![]()
論文https://arxiv.org/abs/2604.04721v2
01 AI正在“偷走”我們的思考力?
最近,卡內基梅隆大學、牛津大學、麻省理工學院和加州大學洛杉磯分校的研究團隊聯合發布了一項研究,通過三組隨機對照實驗,找來共計1222名受試者,系統地測量了AI輔助對人類獨立解題能力的影響。
![]()
實驗一:先甜后苦
第一組實驗招募了354名受試者,任務是做分數運算,總共15道題,難度從一步運算逐漸遞進到三步運算。
研究人員把受試者隨機分成兩組。AI組在前12道題里可以隨意調用AI助手(GPT-5),界面側邊欄會彈出一個對話框,你甚至只需要打一句“答案是什么”,它就會直接告訴你。對照組則全程只能靠自己,沒有任何輔助。
陷阱藏在第13題。做到最后3道題時,AI組的側邊欄被突然撤掉,要求獨立作答。這3道題與對照組完全相同,是衡量真實獨立能力的核心指標。
一開始的劇本和我們預想的一模一樣:在AI的加持下,開掛組一路高歌猛進,他們能更快、更準確地得出答案,正確率碾壓了純人類組。AI就像一個無所不知的學霸同桌,你把題目遞過去,它把完美答案遞回來。
![]()
AI會削弱人在沒有輔助時的表現和堅持完成任務的意愿。(a)按題目出現順序統計的參與者每題平均解答率和跳過率,并給出95%置信區間(CI)。灰色虛線表示學習題與測試題之間的分界。整個實驗中,題目難度逐步提升:依次為一步驟題(第1—4題)、兩步驟題(第5—8題)和三步驟題(第9—12題)。(b)圖為參與者在測試階段的平均解題率與跳過率,附95%置信區間。測試指標通過對每位參與者最后三道測試題的表現取平均值計算得出。
可一旦撤掉AI,畫風就全變了。
習慣了AI輔助的受試者在獨立作答階段的正確率,從領先直接跌到了0.57,顯著低于對照組的0.73。跳過率也從原本的低位,急劇攀升到了0.20,相比之下,對照組只有0.11。
更關鍵的是,他們開始大量跳過題目,甚至直接放棄作答。
注意,這里的跳過不是答錯,是主動選擇不作答。研究人員特意說明,這個實驗對答錯沒有任何懲罰,主動跳過是為了衡量一個人還有沒有意愿繼續努力的真實指標。
研究人員在報告中寫下了一段十分令人感慨的結論:“如果這種依賴持續幾個月甚至幾年,我們可能會培養出整整一代喪失‘獨立掙扎’能力的學習者。一旦沒有技術支持,他們根本不知道該如何有效地去思考。”
![]()
實驗二:排除干擾,結論依然成立
第一個實驗的結論雖然清晰,卻存在一個潛在的漏洞:AI組里可能混入了一些原本就不太會做分數運算的人,他們靠AI勉強通過了前12題,撤掉AI之后自然表現更差。
這個能力差異,會不會才是真正的原因?
為了排除這個干擾,研究團隊在第二組實驗里做了兩處改進。第一處改進,是在正式實驗開始之前,先給所有667名受試者做一輪摸底測試,三道簡單的一步運算題,摸清每個人的初始水平。
之后的篩選和比較都以這個摸底成績為基準,不再依賴實驗中途的表現,從而確保兩組人一開始站在同一起點。
第二處改進,為了消除界面變化帶來的心理影響。
在第一組實驗里,AI組全程有側邊欄,到了最后3道題突然消失;而對照組從頭到尾都沒有側邊欄。這種界面上的落差,可能讓AI組在側邊欄消失的瞬間產生額外的心理波動,影響后續發揮。
為了讓兩組人經歷同樣的界面變化,研究人員給對照組也加了一個側邊欄,里面放的是摸底測試的解題步驟。
這些內容受試者早就看過,不提供任何新信息,純粹只是為了讓對照組在最后3道題時也經歷一次側邊欄消失的節點,排除界面突變本身對心態的干擾。
![]()
實驗二結果的重復驗證。(a)圖為參與者在題目呈現順序下的平均解題率與跳過率,附95%置信區間。題目難度依次遞增,從一步驟題(第4—6題)到兩步驟題(第7—10題)再到三步驟題(第11—14題)。(b)圖為參與者在測試階段的平均解題率與跳過率,附95%置信區間。
這樣一來,兩組之間唯一真正的差別,就只剩下有沒有用過AI這一件事,但最終結論依舊是成立的。AI組的獨立作答正確率(0.71)仍然顯著低于對照組(0.77),跳題傾向也更高。
不過更關鍵的發現,來自研究人員對AI組內部使用習慣的拆解。實驗結束后,研究人員讓AI組的參與者自己匯報:你主要是怎么用AI的?
結果分成了三類:
61%直接管AI要答案;
27%把AI當導師,要提示或解題思路;
12%基本沒用過。
在摸底測試階段,三組人的得分和跳過率幾乎沒有差異,說明大家進入實驗時的起點是一樣的。但到了獨立作答的測試階段,三組人的表現出現了明顯分化。
![]()
表現下滑與堅持度減弱,主要集中在直接從AI獲取答案的參與者身上。(a)各AI使用組在摸底測試階段的解題率與跳過率無顯著差異(單因素方差分析),表明各組初始技能水平與參與動機基本相當。(b)各組在測試階段存在顯著差異(單因素方差分析):直接使用AI獲取答案的參與者在測試時解題率最低、跳過率最高。(c)與自身摸底測試表現相比,直接使用AI獲取答案的參與者解題率下降,跳過率上升,表明其參與度有所降低。其他組的測試表現與前測相比持平或有所提升。
直接要答案的那組,后續獨立作答的正確率最低、放棄率最高,甚至連自己原本的水平都沒發揮出來。而用AI獲取提示、只是輔助理解的那組,表現則和對照組差不多,沒怎么退步。
這個差異背后的邏輯其實不難理解。
直接要答案,意味著你全程沒有經歷任何推導。用AI索要提示則不同,你仍然需要自己判斷提示指向哪里、下一步怎么走、推導到哪里出了錯,AI只是在你卡住的地方遞了一塊墊腳石,思考的主體還是你自己。
所以,問題不在于用不用AI,而在于你把哪個環節交給了它。如果你把“思考”本身讓位給了技術,認知就不會提升把“卡殼”的那一刻交出去,但保留前后的推導,損耗就小得多。
實驗三:換個場景,同樣的結論
為了驗證這個現象是否只在數學題里成立,研究人員又換了一個完全不同的認知領域,用閱讀理解做了第三組實驗。201名受試者被分成兩組,任務是做SAT(類似美國高考)閱讀理解題。
AI組在前5道題里可以調用GPT-5,之后的3道題獨立作答;對照組全程自己完成8道題。同樣為了讓兩組都經歷側邊欄消失的節點,對照組的側邊欄里放了一些通用答題技巧,但在最后3道題時一并撤掉。
![]()
閱讀理解任務中表現與堅持度的下降。(a)圖為參與者在題目呈現順序下的平均解題率與跳過率,附95%置信區間。灰色虛線標示學習階段與測試階段的分界點。(b)圖為參與者在測試階段的平均解題率與跳過率,附95%置信區間,由各參與者數據匯總計算得出。
結果和前兩組實驗如出一轍。AI組獨立作答的正確率(0.76)顯著低于對照組(0.89),跳過率(0.08)也顯著高于對照組(0.01)。
數學運算和閱讀理解,調動的是完全不同的認知機制,但結果驚人地一致:AI輔助之后,獨立作答時,參與者不只是答錯更多,還更頻繁地選擇放棄。
02 守住那段“笨拙”的掙扎
為什么僅僅10分鐘的AI體驗,就能輕易摧毀一個成年人的解題意志?
研究人員在論文里給出了兩層解釋。
第一個機制是口味被養刁了(預期基準偏移)。當你的大腦習慣了“輸入提示詞->3秒后獲取完美答案”的多巴胺路徑后,你的效率閾值被無限拉高了。
此時,任何需要超過3分鐘專注力的無輔助工作,都會讓你產生一種強烈的“吃力感”——感覺自己付出了過多的額外努力,哪怕那些努力其實完全正常。
第二個機制是自我認知的空白。回想一下,你真正掌握某項技能的時刻,往往伴隨著痛苦和抓耳撓腮。那種從怎么也想不通到豁然開朗的轉折,就是建設性掙扎,也正是大腦建立神經元連接的必經之路。
建設性掙扎給人帶來的不只是解題結果,還有對自己能力邊界的真實感知——知道自己哪行、哪不行、能扛多久。AI抹掉了這個過程,你也就失去了校準自我的機會。你既不知道自己的極限在哪,也不知道自己其實有能力搞定。
麻省理工學院的另一項研究,從另一個側面證實了這個隱憂。
研究人員讓受試者使用ChatGPT來撰寫長篇論文。結果那些重度依賴AI寫出漂亮文章的人,在事后往往根本回憶不起來自己寫了什么,甚至在測試時,連哪篇文章是自己交的都認不出來。
研究團隊為此創造了一個極其精準的詞匯:認知債務(Cognitive Debt)。就像刷信用卡。你用AI搞定了今天的工作總結、明天的策劃案、期末的論文,透支的是未來的認知能力,換來的是當下的舒適區。
債總是要還的,而且往往在你最措手不及的時候找上門來。
![]()
一開始,你只是用AI幫你潤色普通的文案;接著,你讓它幫你列一個會議提綱;后來,你連給親近的人寫句話都要先問問AI的意見。隨著時間的推移,你的獨立思考能力、深度閱讀能力、甚至組織長句子的能力,都在不知不覺中萎縮。你以為你在白嫖AI的算力,實際上,AI正在“吃掉”你的腦力。
此外,研究人員還特意在報告中提到,學習資源越少的學生,受到的沖擊可能越大。對于本身就能接觸到大量優質教育資源、有老師有輔導的群體來說,AI只是眾多工具之一;
對于依賴自學、缺乏外部支持的人來說,AI很可能是他們接觸“即時幫助”的唯一渠道,依賴也會更深。
雖然加減乘除和基礎閱讀看起來是小事,但它們是通往高階能力的臺階。如果基礎階段的練習意愿被AI侵蝕掉了,后面的邏輯思維和批判性思考就成了無源之水,無本之木。
那么,面對洶涌而來的AI浪潮,我們難道要退回2021年,拒絕使用一切大模型嗎?顯然不是。技術的車輪不會倒退。
研究人員認為,那些表面化的補救措施,比如把AI設計成蘇格拉底式問答、限制使用時長,解決不了根本問題,因為AI提供的誘惑是系統性的。真正的出路,在于從設計層面重新思考AI與人類的協作方式。
未來的AI,在設計之初就必須考慮到人類的長期目標。這意味著,AI應該被設計成一個懂得克制的“導師”,而不是一個有求必應的“保姆”。
一個真正優秀的AI導師,看到學生抓耳撓腮時,絕不會直接把答案甩過去。它會給出提示,引導方向,甚至刻意保持沉默,等學生自己跨過那道坎。
遺憾的是,目前市面上絕大多數AI產品都在瘋狂討好用戶。它們比拼的是誰生成得更快、誰能最大程度地幫用戶省掉思考時間,但作為用戶的我們,或許是時候在狂熱中保持一絲清醒了。
下次遇到不那么緊急、需要動腦子的活兒,試著先關掉AI的對話框。拿出一張紙、一支筆,去體會那種絞盡腦汁、卡殼、最后豁然開朗的過程。
就算非要用AI,也請讓它給你一點提示,而不是直接要一個結果。在這個答案可以瞬間生成的時代,那段看似笨拙、辛苦的掙扎,才是你作為人類最核心的競爭力,也是任何AI都無法替代的終極壁壘。
來源 | APPSO(ID:appsolution)
作者 | 明日產品的 ; 編輯 | 蝦餃
內容僅代表作者獨立觀點,不代表早讀課立場
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.