![]()
AI不只是一種預(yù)測工具,它正在判決大多數(shù)人的命運(yùn)。
AI的問題,最終不僅僅是技術(shù)問題,而是一個關(guān)于自由的問題。在AI時代,一個最大的自由和權(quán)利,就是不被算法提前算完的自由和權(quán)利。
有一類變化,往往是在它已經(jīng)深深進(jìn)入生活之后,人們才意識到它不只是一種新的技術(shù)”,而是一種新的社會力量。
人工智能就是這樣。
很多人談?wù)?AI 時,依然停留在一種相對膚淺的想象里:它是一個更聰明的搜索引擎,一個更高效的寫作助手,一個會聊天、會整理資料、會生成圖片和代碼的工具。
它當(dāng)然也是這些東西。但這恰恰構(gòu)成了普通人對 AI 最大的誤解:我們總以為它只是工具,卻沒有意識到,一旦 AI 進(jìn)入招聘、貸款、保險、教育、司法、治安和平臺推薦等制度性場景,它扮演的就不再只是工具角色,而是一種分配機(jī)會、定義風(fēng)險、預(yù)審未來的權(quán)力。
工具幫助你完成一件事。權(quán)力則決定你有沒有資格進(jìn)入某種生活。
這正是現(xiàn)代人最深的一個認(rèn)知陷阱。
二十世紀(jì)八十年代,芝加哥大學(xué)的一批金融經(jīng)濟(jì)學(xué)家發(fā)現(xiàn)了一件讓他們自己都不敢相信的事。他們研究的是一個叫 Black-Scholes 的期權(quán)定價模型,這是一條 1973 年由兩位經(jīng)濟(jì)學(xué)家推導(dǎo)出來的數(shù)學(xué)公式,據(jù)說能算出任何一份期權(quán)的"合理價格"。這條公式復(fù)雜得不像話,普通交易員根本讀不懂。
但它改變了市場。
在這條公式出現(xiàn)之前,期權(quán)市場的定價是混亂的,不同交易員給出的價格千差萬別。公式普及之后,所有人都開始用它。結(jié)果并不是"市場被準(zhǔn)確描述了",而是市場開始按這條公式的樣子生長。市場原本不是那樣的,但越來越多的人按這條公式行動,市場就慢慢變成了公式所描述的樣子。
有一位叫 Donald MacKenzie 的社會學(xué)家花了很多年研究這件事。他是愛丁堡大學(xué)的教授,主要研究金融技術(shù)和社會的關(guān)系。他把這個現(xiàn)象寫成了一本書,書名起得極好,叫做《An Engine, Not a Camera》,翻譯過來就是“是引擎,而不是照相機(jī)"。
這本書的核心洞察很簡單。我們以為金融模型像一臺照相機(jī),忠實(shí)地記錄市場的樣子。但事實(shí)是,它更像一臺引擎,市場按它的驅(qū)動在運(yùn)行。
模型并不是在描述現(xiàn)實(shí),模型在制造現(xiàn)實(shí)。
這句話搬到今天的 AI 身上,每一個字都成立。
你想想看。一個招聘算法預(yù)測某個候選人"不適合這個崗位",公司就不給他機(jī)會,于是這個人沒有這段工作經(jīng)歷,于是他下次投簡歷時履歷更弱了,于是他下一次更難被雇用,于是算法的預(yù)測"得到了驗(yàn)證"。
一個信貸模型預(yù)測某個人"違約風(fēng)險偏高",銀行就不給他貸款,于是他失去了一次可能扭轉(zhuǎn)財務(wù)狀況的機(jī)會,于是他真的越來越窮,于是下一次任何銀行看到他,都會得出相同的結(jié)論。
一個平臺推薦算法預(yù)測某個創(chuàng)作者的內(nèi)容"用戶興趣度低",就把他的流量壓下去,于是這個創(chuàng)作者沒人看,于是他的數(shù)據(jù)更難看了,于是算法更不推他,于是他真的失敗了。
這就是今天 AI 最值得警惕的地方:它不只是預(yù)測未來,它正在策動、決定、參與分配未來。
而比這更可怕的是,很多時候,人們甚至意識不到自己正在被“判決”。因?yàn)樗惴ú幌穹ü倌菢幼诟吲_上,不像警察那樣穿制服,也不像老板那樣有一張明確的臉。它往往只是以一種看似客觀、理性、技術(shù)中立的方式出現(xiàn):一個分?jǐn)?shù),一個標(biāo)簽,一項(xiàng)概率,一次排序,一條“系統(tǒng)建議”。
但正是這種沒有面孔的判斷,更容易讓人放下警惕。人們總覺得,既然它是算出來的,那大概就是事實(shí);既然它是數(shù)據(jù)驅(qū)動的,那大概就比人的偏見更公正。
問題恰恰在這里。我們低估AI,不是因?yàn)槲覀儾恢浪斆鳎且驗(yàn)槲覀內(nèi)匀辉谟?/strong>“工具”的眼光看它,而它早已在現(xiàn)實(shí)中長成了一種“命運(yùn)權(quán)力”。
![]()
德爾菲神諭
一、從神廟到算法:預(yù)測從來都和權(quán)力綁在一起
古代世界最著名的神諭,或許是古希臘的德爾斐神廟。
那個地方很奇怪。人們長途跋涉去那里,不是為了獲得一個精確答案,而是為了獲得一種合法性。城邦要不要開戰(zhàn),國王要不要改革,個人要不要遠(yuǎn)行,人們?nèi)柹裰I,往往不是因?yàn)樯裰I真的比誰都懂,而是因?yàn)樯裰I可以把本來充滿爭議的事情,包裝成一種超越爭議的命運(yùn)安排。
一旦“神說如此”,原本需要承擔(dān)的責(zé)任、解釋和辯論,都會在某種程度上被消解。決定不再只是人的決定,而成了天意的傳達(dá)。
這正是神諭最重要的政治功能:它不只提供信息,它還提供權(quán)威。
今天我們當(dāng)然不再去神廟問命運(yùn)。但我們對“不會錯的聲音”的迷戀,并沒有消失,只是神諭換了形式。
它不再以神職人員的口吻發(fā)聲,而是以模型、評分、概率和數(shù)據(jù)分析的面貌出現(xiàn)。它不再說“你命中如此”,而是說“根據(jù)歷史數(shù)據(jù),你有 87% 的概率違約”、“根據(jù)行為畫像,你不適合這份崗位”、“根據(jù)綜合評估,你屬于高風(fēng)險人群”。
從外表看,這與古代神話毫不相干。一個來自祭司的預(yù)言,一個來自服務(wù)器的預(yù)測,似乎分屬兩個完全不同的文明階段。可它們在社會中的作用,卻驚人相似:都在把本來可以爭論、可以申訴、可以重新判斷的事情,包裝成一種看似客觀、不可置疑的結(jié)論。
古代神諭的威力,來自人們相信它連通神意;現(xiàn)代算法的威力,來自人們相信它連通事實(shí)。前者借神圣性獲得權(quán)威,后者借客觀性獲得權(quán)威。但對于普通人的命運(yùn)來說,兩者都可能產(chǎn)生同樣的效果:你的未來不再由一個具體的人來公開判斷,而是交給了一套你無法看見、難以質(zhì)疑、也很少能真正申訴的機(jī)制。
這就是為什么,預(yù)測從來不只是一個知識問題。它也是一個權(quán)力問題。
因?yàn)檎l有資格預(yù)測別人,誰往往就有資格安排別人。對天氣的預(yù)測不會損害云層的尊嚴(yán);但對人的預(yù)測,會改變一個人能不能被錄用、能不能借到錢、能不能搬進(jìn)一個更好的社區(qū)、能不能從某種處境中翻身。預(yù)測一旦進(jìn)入制度,就不再只是看未來的方式,它還會成為塑造未來的方式。
在這個意義上,AI 并不只是提高效率的工具,它正在接管神諭曾經(jīng)擁有的一部分社會功能:為權(quán)力提供一種看起來無可爭議的外衣。
二、AI不是“預(yù)測未來”在“制造未來”
許多人談到 AI 預(yù)測時,默認(rèn)它像一面鏡子。現(xiàn)實(shí)是什么樣,它就把現(xiàn)實(shí)照出來;人的風(fēng)險、能力和潛力是什么樣,它就更準(zhǔn)確地識別出來。按照這種想象,算法最多只是比人更聰明、更快、更少情緒干擾的判斷者。
但這恰恰是最危險的誤會之一。
在很多制度場景里,AI 不是照相機(jī),而是引擎。它不是把未來拍出來,而是在把某種未來發(fā)動出來。
這個道理并不復(fù)雜。一個系統(tǒng)如果預(yù)測某人“違約風(fēng)險高”,銀行就更可能拒絕貸款;拒絕貸款之后,這個人失去創(chuàng)業(yè)、渡過資金難關(guān)或者改善生活的機(jī)會,未來的財務(wù)狀況自然更差。于是系統(tǒng)看起來像是“預(yù)測對了”。可它到底是在預(yù)測,還是在通過拒絕幫助,把那個糟糕的未來推向現(xiàn)實(shí)?
一個招聘模型如果根據(jù)歷史數(shù)據(jù)判斷某類背景的人“穩(wěn)定性不足”或“績效預(yù)期偏低”,公司就更不愿意給他們面試機(jī)會。沒有人給機(jī)會,他們當(dāng)然無法在現(xiàn)實(shí)中證明自己。
多年之后,模型回頭看數(shù)據(jù),發(fā)現(xiàn)這類人果然“進(jìn)入公司比例更低、成材率也不高”,于是它顯得越來越準(zhǔn)確。可這種準(zhǔn)確,究竟是看見了現(xiàn)實(shí),還是制造了現(xiàn)實(shí)?
一個社區(qū)如果被系統(tǒng)預(yù)測為“高風(fēng)險區(qū)域”,更多警力和監(jiān)控就會被投放進(jìn)去,于是更多輕微違法行為也會被捕捉、記錄和統(tǒng)計(jì)。久而久之,數(shù)據(jù)繼續(xù)證明這個地方“風(fēng)險更高”,政策也因此進(jìn)一步向那邊傾斜。
可問題是,這個地方更危險,是因?yàn)樗緛砣绱耍€是因?yàn)樗活A(yù)先當(dāng)作危險來對待,于是產(chǎn)生了更多“危險證據(jù)”?
社會學(xué)里有一個非常著名的概念,叫“自證預(yù)言”。
意思是:一個起初并不完全真實(shí)的判斷,會因?yàn)槿藗兿嘈帕怂?jù)此行動,最后使這個判斷看上去成了真。托馬斯定理說:“如果人們將情境定義為真實(shí)的,那么它們在結(jié)果上就會是真實(shí)的。”這句話聽起來像繞口令,其實(shí)說的是最樸素的社會機(jī)制:人不是在純粹客觀的現(xiàn)實(shí)里行動,而是在自己所相信的現(xiàn)實(shí)里行動;而正是這些行動,最終塑造了那個現(xiàn)實(shí)。
AI 預(yù)測最深的危險,就在這里。它并非簡單地向我們報告未來,而是在越來越多的場景中,誘導(dǎo)制度和人們按照它的判斷來行動。于是,預(yù)測開始變成一種施加力量的方式。
它說你“不值得信任”,世界就先對你關(guān)閉一部分信任;它說你“成功概率偏低”,機(jī)會就先從你面前撤走;它說你“更可能有風(fēng)險”,規(guī)則就先向你收緊。最后,預(yù)測看似被現(xiàn)實(shí)驗(yàn)證,實(shí)際上是現(xiàn)實(shí)先服從了預(yù)測。
所以,AI問題的核心,不只是“準(zhǔn)不準(zhǔn)”,而是它的預(yù)測會不會反過來成為一種判決。
預(yù)測看起來像是在描述世界,實(shí)際上卻常常具有“規(guī)范性”。它在暗中告訴我們該怎么做。一個大語言模型告訴你,未來大家都會用某種技術(shù)辦公,它表面上是在描述趨勢,實(shí)際上也在鼓勵你加入這個趨勢;一個評分模型告訴機(jī)構(gòu),某些人更值得投資,另一些人更應(yīng)被排除,它表面上是在提供信息,實(shí)際上已經(jīng)在發(fā)出行動指令。
用語言哲學(xué)的話說,這不只是“描述”,而是“施事”。
說出一句話,本身就在做一件事。法官說“判你有罪”,不是在描述一個既成事實(shí),而是在實(shí)施判決。神父說“我宣布你們結(jié)為夫妻”,不是在匯報信息,而是在創(chuàng)造一種新的社會關(guān)系。AI 預(yù)測在很多時候正是這樣:它看似只是把概率說出來,實(shí)際上是在啟動一種制度性的后果。
于是,預(yù)測就不再只是預(yù)測,它變成了某種沉默的命令和權(quán)力。
三、最可怕的不是誤判,而是世界永遠(yuǎn)不知道那是誤判
傳統(tǒng)權(quán)力的壓迫,往往還帶著明確的形狀。你知道是誰拒絕了你,是哪個部門做出的決定,是哪一條規(guī)定限制了你。它可能依然不公平,但至少有責(zé)任主體,也有理論上的申訴對象。
算法權(quán)力最可怕的地方在于,它常常沒有明確面孔,卻能產(chǎn)生明確后果。
你被一套招聘系統(tǒng)刷掉,可能只會看到一封自動郵件。你不知道是哪些特征讓系統(tǒng)覺得你“不合適”,也不知道它是不是把你的學(xué)校、住址、工作間斷、年齡、語言風(fēng)格、社交痕跡、甚至某些間接變量,當(dāng)成了隱性的風(fēng)險信號。你能做的,往往只是接受結(jié)果。一個看似平靜的系統(tǒng)通知背后,其實(shí)是一場你從未參與、也無法辯論的審判。
這就產(chǎn)生了一種非常“卡夫卡式”的處境。
你知道自己被決定了,卻不知道依據(jù)是什么;你感到命運(yùn)發(fā)生了變化,卻看不見誰在改變它。決定不是基于清晰規(guī)則,而是基于一個黑箱里的模式匹配。這個黑箱并不需要向你解釋,因?yàn)樗31灰暈椤皩I(yè)”“復(fù)雜”“商業(yè)機(jī)密”甚至“技術(shù)上難以解釋”。于是,一個影響你人生的重要判斷,既不透明,也不對你負(fù)責(zé)。
但黑箱還不是最可怕的。最可怕的是,它還會抹掉錯誤證據(jù)。
想象一個人因?yàn)樗惴ㄅ卸ā皪徫黄ヅ涠鹊汀倍チ嗣嬖嚈C(jī)會。我們永遠(yuǎn)不會知道,他如果被錄用,會不會其實(shí)是一名極好的員工。那條現(xiàn)實(shí)分支已經(jīng)被切斷了,它不再存在于數(shù)據(jù)里。
反過來,算法只會看到:這個沒被錄用的人后來并沒有在那家公司表現(xiàn)出色,當(dāng)然沒有,因?yàn)樗B機(jī)會都沒得到。于是系統(tǒng)的“準(zhǔn)確性”就顯得毫發(fā)無損。
這就是自我實(shí)現(xiàn)的預(yù)言像“完美犯罪”的原因:它不會留下明顯的錯誤信號。
你無法證明某次拒絕是錯誤的,因?yàn)槟菞l本可展開的人生路徑已經(jīng)被制度掐滅了。沒有發(fā)生的事情,不會形成數(shù)據(jù);而恰恰是這些沒有發(fā)生、卻本該可能發(fā)生的事情,構(gòu)成了普通人最珍貴的未來。
一個年輕人沒有拿到貸款,我們不知道他本來能不能創(chuàng)業(yè)成功;一個孩子因?yàn)樗惴ǚ至鞅粚?dǎo)向較差教育資源,我們不知道他本來能不能在另一條道路上綻放;一個求職者因?yàn)樵u分系統(tǒng)被過濾,我們也不知道他本來會不會在復(fù)雜的人際合作和創(chuàng)造性工作中表現(xiàn)出色。
算法淘汰的,不只是某次選擇;它淘汰的往往是那些尚未發(fā)生、因而永遠(yuǎn)不再有證據(jù)的可能性。
這就是算法型不義的深處:它不只傷害人,它還讓傷害難以被看見。
我們今天已經(jīng)很熟悉“偏見”這個詞。人們會說,算法也有偏見,因?yàn)橛?xùn)練數(shù)據(jù)有偏見,設(shè)計(jì)者有偏見,社會歷史本身就充滿偏見。這當(dāng)然都對。但比“偏見”更深的一層問題是:算法會把偏見固化成命運(yùn),然后再用結(jié)果證明偏見是對的。
在這種機(jī)制里,窮人更容易被判定為風(fēng)險,風(fēng)險又讓他們更難獲得資源;邊緣群體更容易被系統(tǒng)識別為“不穩(wěn)定”,不穩(wěn)定的判斷又使他們更難進(jìn)入穩(wěn)定軌道;那些本就缺乏社會資本的人,最容易在黑箱制度中成為“看起來合理的淘汰者”。
技術(shù)于是獲得了一種特別體面的殘酷。它不必大聲喊出歧視,不必在公開場合羞辱誰,不必說“我不喜歡你們這種人”。它只要平靜地顯示:根據(jù)模型計(jì)算,你不在優(yōu)先考慮范圍內(nèi)。
偏見被洗成概率,歧視被翻譯為風(fēng)險控制,命運(yùn)的關(guān)門聲則被包裝成系統(tǒng)優(yōu)化的一部分。
![]()
俄狄浦斯王
四、從俄狄浦斯到羅馬禁令:預(yù)言會扭曲現(xiàn)實(shí)
古希臘悲劇《俄狄浦斯王》講了一個古老而震撼的故事:神諭預(yù)言俄狄浦斯將會殺父娶母。為了逃避這個命運(yùn),所有人都圍繞預(yù)言行動,結(jié)果恰恰一步步把他推向了預(yù)言本身。
這個故事之所以歷經(jīng)幾千年仍然令人不安,不只是因?yàn)樗錆M悲劇色彩,更因?yàn)樗鼫?zhǔn)確抓住了“預(yù)言的悖論”:有些預(yù)言并不只是被動地描述未來,它本身就會介入人們的行動,從而改變未來。
哲學(xué)家波普爾曾借用這個神話來談社會科學(xué)中的“俄狄浦斯效應(yīng)”:關(guān)于未來的預(yù)言,可能正是促成或阻礙該事件發(fā)生的原因。換句話說,對人的未來進(jìn)行預(yù)測,與對日食進(jìn)行預(yù)測是兩回事。
天體不會聽見你的預(yù)言,也不會因此改變軌道;但人會。制度也會。市場會。輿論會。于是,預(yù)言進(jìn)入社會之后,就不再只是觀察,而會成為力量。
歷史上有一個很有意思的現(xiàn)象:古羅馬曾在不同時期禁止預(yù)言皇帝之死。理由并不神秘,關(guān)于皇帝將死的預(yù)言,往往會導(dǎo)致皇帝真的被殺。因?yàn)橐坏┠撤N說法開始流傳,人們就會圍繞它重新評估風(fēng)險、忠誠和機(jī)會,潛在的野心家、觀望者和陰謀者都會受到影響。于是,預(yù)言不再只是預(yù)言,而成為了行動的催化劑。
這一點(diǎn)放在今天,依然成立。
一個 AI 如果預(yù)測某人“未來財務(wù)狀況惡化”,銀行可能拒絕放貸,這反過來又會讓他的財務(wù)狀況更容易惡化;一個模型若預(yù)測某人“未來患病風(fēng)險偏高”,保險就可能漲價,財務(wù)壓力帶來的焦慮和生活質(zhì)量下降,反而會增加健康惡化的可能;一個系統(tǒng)若將某人歸類為“潛在不穩(wěn)定”,機(jī)構(gòu)就可能更少給予資源與信任,這種持續(xù)性的收縮又會讓他的生活更不穩(wěn)定。
所以問題不是“我們能不能預(yù)測”,而是:
有些東西即便可以預(yù)測,是否也不該被用來裁決?
這是 AI 時代最重要、卻討論得遠(yuǎn)遠(yuǎn)不夠的問題之一。
現(xiàn)代社會對“能不能算出來”太感興趣了,卻很少追問“算出來之后能不能拿來決定人的命運(yùn)”。在技術(shù)邏輯里,似乎只要模型準(zhǔn)確率足夠高,就天然擁有使用正當(dāng)性。但在人類社會里,準(zhǔn)確并不是唯一價值。透明、可爭辯、可申訴、可逆轉(zhuǎn)、可重新開始,同樣是重要的價值。
一個自由社會的制度設(shè)計(jì),不能只圍繞“最優(yōu)預(yù)測”展開。它還必須考慮:這個預(yù)測會不會成為自我實(shí)現(xiàn)的預(yù)言?會不會制造一個被預(yù)測者無法逃脫的閉環(huán)?會不會讓某些人再也沒有機(jī)會證明自己不是模型所說的那類人?
如果答案是會,那么問題就不再是技術(shù)能力,而是政治倫理。
五、當(dāng)人被像天氣一樣預(yù)測,人的主體性也開始縮水
預(yù)測天氣、預(yù)測庫存、預(yù)測交通流量、預(yù)測機(jī)器何時故障,這些都沒有根本問題。世界上有許多對象,本來就適合用統(tǒng)計(jì)模型來理解和管理。問題出在,當(dāng)社會開始用同樣的方式來處理“人”。
當(dāng)我們像預(yù)測天氣那樣預(yù)測人時,我們在悄悄接受一種前提:人只是過去模式的延長線,是一組可被拆解為特征、變量和概率的對象。你的昨天足以決定你的明天;你的行為軌跡、消費(fèi)習(xí)慣、社交網(wǎng)絡(luò)、學(xué)習(xí)記錄、健康檔案和情緒波動,最終都可以被轉(zhuǎn)譯成一個更高或更低的風(fēng)險值。
這種處理方式之所以危險,不只是因?yàn)樗赡懿还剑驗(yàn)樗诟淖兾覀儗τ?/strong>“人是什么”的理解。
人當(dāng)然會受過去影響,但人并不只是過去的總和。人之所以是人,恰恰在于他有能力偏離自己的過去,有能力在某個時刻突然改變,有能力出人意料,有能力悔改、成長、反抗、重新開始。
一個年輕人出身普通,不意味著他就會永遠(yuǎn)困在原地;一個曾經(jīng)失敗的人,并不注定不會在下一次選擇中完成逆轉(zhuǎn);一個看起來“低匹配度”的候選人,可能恰恰會在真實(shí)復(fù)雜的組織中帶來意外價值。
如果一個社會越來越相信模型對人的描述,超過相信人改變自己的能力,那么這個社會失去的,就不只是公平,還有一種更深層的東西:人的開放性。
現(xiàn)代治理越來越偏愛把人拆解為“畫像”。
這當(dāng)然方便。畫像讓人更容易被分類、被管理、被定價、被分層。平臺可以據(jù)此更精準(zhǔn)地推送內(nèi)容,企業(yè)可以據(jù)此更高效地篩選候選人,金融機(jī)構(gòu)可以據(jù)此更細(xì)致地控制風(fēng)險,政府機(jī)構(gòu)也可以據(jù)此更精密地分配資源和警惕危險。
問題在于,畫像并不會停留在“認(rèn)識你”這一步,它遲早會滑向“定義你”。當(dāng)一個人被定義為一組穩(wěn)定的特征,他作為主體的那部分不確定性,那部分“我還可以成為別的人”的權(quán)利,就開始被削弱。
這就是為什么,AI問題最終不僅僅是技術(shù)問題,而是一個關(guān)于自由的問題。
自由不只是“想做什么就做什么”。自由還意味著,你不應(yīng)被過去的數(shù)據(jù)提前算完;你不應(yīng)因?yàn)榻y(tǒng)計(jì)學(xué)上與某類人相似,就被剝奪證明自己不同的機(jī)會;你不應(yīng)在真正行動之前,就被系統(tǒng)預(yù)審了命運(yùn)。
人的尊嚴(yán),部分就在這里。不是因?yàn)槊總€人都無比高貴,而是因?yàn)槊總€人都不應(yīng)該被簡化為一個完全可計(jì)算、可提前判定的對象。一個社會若只追求預(yù)測準(zhǔn)確率,遲早會把人變成管理對象;而一個社會若仍然尊重人的主體性,就必須為不可預(yù)測性保留空間。
不可預(yù)測,并不只是效率的敵人。它也是自由的條件。
![]()
六、預(yù)測市場的火熱,暴露了一個時代的精神結(jié)構(gòu)
這幾年,預(yù)測市場重新成為一個熱門話題。無論是與加密貨幣結(jié)合的去中心化預(yù)測平臺,還是圍繞選舉、政策、經(jīng)濟(jì)數(shù)據(jù)、科技事件展開的各種投機(jī)和投資機(jī)制,都體現(xiàn)出一種越來越鮮明的傾向:
人們想把未來變成一個可交易、可定價、可押注的對象。
從表面看,這似乎只是金融創(chuàng)新或者互聯(lián)網(wǎng)游戲化的一部分。它給人一種很現(xiàn)代的感覺:眾包信息、分散判斷、市場定價,把大家對未來的信念壓縮成一個概率。誰判斷得準(zhǔn),誰就賺錢;誰看錯了,誰就虧損。
這種機(jī)制當(dāng)然有其信息聚合意義,也并非一無是處。但它之所以在今天格外有吸引力,不只是因?yàn)樗嶅X、刺激、聰明,而是因?yàn)樗c AI 所代表的時代精神高度同構(gòu)。
這種時代精神可以概括為一句話:
未來不是等待發(fā)生的東西,而是可以被提前計(jì)算、提前下注、提前配置的東西。
AI 試圖通過數(shù)據(jù)預(yù)測未來。預(yù)測市場試圖通過價格發(fā)現(xiàn)未來。兩者的方法不同,但背后的沖動很接近:都在努力把不確定性轉(zhuǎn)化為某種可操作的概率結(jié)構(gòu)。人們不再滿足于讓未來到來,他們想提前接近它、占有它、管理它,最好還能從中套利。
這看起來非常現(xiàn)代,也非常理性。但其中潛藏著一種危險:當(dāng)“預(yù)測未來”成為越來越強(qiáng)的社會沖動,社會就會越來越傾向于以概率而不是以判斷來組織行動,以風(fēng)險控制而不是以價值討論來處理問題。
人們更關(guān)心“什么最可能發(fā)生”,而不是“什么是應(yīng)該發(fā)生的”;更關(guān)心“如何根據(jù)模型配置資源”,而不是“怎樣保留人的開放性和意外性”。
于是,未來逐漸被資本、數(shù)據(jù)和算力提前占領(lǐng)。誰擁有更多數(shù)據(jù)、模型、資金和計(jì)算資源,誰就更有能力在別人真正進(jìn)入未來之前,先為未來定價。普通人則往往只能在被定價之后,接受一個已經(jīng)對自己不利的現(xiàn)實(shí)。
從這個角度看,預(yù)測市場和 AI 的結(jié)合并不只是技術(shù)融合,更像是一種精神聯(lián)盟。它們共同推動一種觀念:世界的核心不再是行動,而是預(yù)判;不再是實(shí)踐,而是定價;不再是給人機(jī)會,而是先估算一個人值不值得給機(jī)會。
古代人害怕未來,是因?yàn)槲磥聿豢芍,F(xiàn)代人迷戀未來,也是因?yàn)槲磥聿豢芍V皇墙裉欤覀儾辉傧蛏衩鳙I(xiàn)祭,而是向數(shù)據(jù)獻(xiàn)祭;我們不再等待神諭降臨,而是試圖用模型、市場和算力,把未來提前兌換成一種可管理的風(fēng)險。
問題是,當(dāng)風(fēng)險管理越過邊界,滑向命運(yùn)管理,普通人還能剩下多少“重新開始”的空間?
七、真正值得警惕的,不是AI 更聰明,而是人們越來越屈從它的判決
關(guān)于 AI,人們最常見的兩種討論,一種是樂觀主義的:它提高效率、降低成本、創(chuàng)造便利、釋放生產(chǎn)力;另一種是災(zāi)難主義的:它可能失控、取代人類、制造大規(guī)模失業(yè),甚至威脅文明本身。
這兩種討論都重要。但對于眼下的大多數(shù)普通人來說,最迫近、也最容易被忽視的問題,也許不是 AI 會不會毀滅人類,而是它已經(jīng)開始以一種安靜的方式,參與決定普通人的前途。
它不會像科幻電影那樣沖出屏幕統(tǒng)治世界。它會以“系統(tǒng)建議”、“信用評估”、“綜合畫像”、“風(fēng)險識別”、“精細(xì)化運(yùn)營”、“個性化推薦”的形式,一點(diǎn)點(diǎn)進(jìn)入生活。它不會高喊命令,而會提供越來越難以拒絕的“最優(yōu)判斷”。
久而久之,機(jī)構(gòu)學(xué)會依賴它,人們也學(xué)會服從它。最后,我們會發(fā)現(xiàn),許多決定命運(yùn)的關(guān)鍵環(huán)節(jié),都已經(jīng)提前外包給了一套不會承擔(dān)道德責(zé)任的技術(shù)體系。
這時候,最危險的事情并不是模型本身,而是社會對模型的信仰。不是 AI 非要成為神,而是我們越來越愿意把它當(dāng)神。
我們喜歡“客觀”的東西,因?yàn)樗芴嫖覀儨p輕判斷的負(fù)擔(dān);我們迷戀“數(shù)據(jù)驅(qū)動”,因?yàn)樗審?fù)雜的責(zé)任看起來變得簡單;我們偏愛概率,是因?yàn)楦怕仕坪醣葍r值爭論更干凈、更高效。
可一旦這種傾向走得太遠(yuǎn),我們就會忘記一件事:在人類社會里,很多最重要的決定從來不只是事實(shí)判斷,它們同時也是價值判斷。
要不要給一個人第二次機(jī)會?要不要容忍風(fēng)險來換取更大的公平?要不要在效率和尊嚴(yán)之間留出余地?要不要讓一個背景不占優(yōu)勢的人,也能得到證明自己的機(jī)會?這些問題,沒有任何模型可以替我們作出最后決定。因?yàn)樗鼈兩婕暗牟皇恰笆澜缡鞘裁础保恰拔覀兿M澜绯蔀槭裁礃印薄?/p>
當(dāng) AI 把充滿價值沖突的決定偽裝成中性的事實(shí),它就會讓真正該被公開討論的問題,悄悄退出討論。
于是,命運(yùn)的分配不再顯得像政治選擇,而只像技術(shù)結(jié)果;不平等不再顯得像制度安排,而只像算法算出來的現(xiàn)實(shí);那些本可爭辯的事情,也在“模型如此”的一句話里失去了爭辯的資格。
這才是現(xiàn)代神諭最可怕的地方。它不是用神秘壓制你,而是用理性說服你;不是讓你因恐懼而服從,而是讓你因?yàn)橄嘈潘?/strong>“更懂”而服從。
結(jié)語:不要被算法提前算完
當(dāng)然,沒有人會主張一個現(xiàn)代社會完全放棄預(yù)測。我們需要統(tǒng)計(jì),需要模型,需要風(fēng)險分析,需要技術(shù)來幫助人類理解復(fù)雜世界。
問題從來不在于“要不要預(yù)測”,而在于:預(yù)測能否越過邊界,直接成為決定命運(yùn)的依據(jù)。
一旦預(yù)測開始替代判斷,開始壓過申訴,開始剝奪一個人偏離模型的機(jī)會,它就不再只是輔助工具,而成了一種需要被約束的權(quán)力。
尤其是在招聘、信貸、保險、教育、醫(yī)療、司法、執(zhí)法和公共服務(wù)這些場景里,社會應(yīng)當(dāng)警惕的,不只是模型誤差和數(shù)據(jù)偏見,還包括一個更根本的問題:人是否仍然擁有解釋自己、修正自己、重啟人生的空間。
一個人不該因?yàn)檫^去像某類人,就被提前判定未來也只能如此。一個社會也不能只為了提高預(yù)測準(zhǔn)確率,就犧牲人作為主體的開放性。
自由社會的前提,不是它能把每個人都計(jì)算得更精確。
恰恰相反,自由社會之所以自由,是因?yàn)樗姓J(rèn):人的未來不能被過去的數(shù)據(jù)獨(dú)自決定;制度不能以“高概率”為名,取消一個人證明自己不同的機(jī)會;技術(shù)可以幫助我們理解現(xiàn)實(shí),但不能代替我們承擔(dān)關(guān)于公平、尊嚴(yán)和希望的判斷。
說到底,我們真正需要捍衛(wèi)的,也許不只是隱私權(quán),不只是知情權(quán),甚至不只是反歧視權(quán)。我們還需要捍衛(wèi)一種更容易被忽視、卻同樣重要的權(quán)利:
不被提前算完的權(quán)利。
因?yàn)橐粋€人最珍貴的部分,從來不只是他已經(jīng)是什么樣的人,更在于他始終可能成為別的人。
而只要這個可能性還在,命運(yùn)就不該被任何神諭提前判決,哪怕是披著算法外衣的神諭。【懂】
如果你想了解更多類似本文的優(yōu)質(zhì)內(nèi)容,經(jīng)叔最近做了一個網(wǎng)站:https://budongjing.com
人肉篩選挖掘的硬核優(yōu)質(zhì)內(nèi)容及深度原創(chuàng),重點(diǎn)關(guān)注科技、文化、財富、權(quán)力四大要素以及它們之間的互動與影響。網(wǎng)站定價1999元/年,目前內(nèi)測優(yōu)惠價1299元/年,感興趣的讀者可以加經(jīng)叔微信訂閱。
另外,歡迎加入經(jīng)叔的知識星球。星球重點(diǎn)關(guān)注AI技術(shù)與商業(yè)前沿、一人公司與個人IP的底層邏輯和頂層設(shè)計(jì),文化敘事與財富認(rèn)知。
我是不懂經(jīng)的經(jīng)叔,國內(nèi)最早翻譯介紹了納瓦爾的《如何不靠運(yùn)氣獲得財務(wù)自由》,以及影響了納瓦爾、中本聰、馬斯克等大佬的《主權(quán)個人》。
不懂經(jīng)知識星球,眾多百萬粉絲大V、千萬及億萬富翁訂閱。專注分享一人企業(yè)、一人創(chuàng)投主題,關(guān)鍵詞:AI、IP、創(chuàng)投、科技及商業(yè)前沿的高杠桿內(nèi)容。
![]()
愈懂愈自由
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.