![]()
當前數(shù)字治理中存在的諸多亂象與算法的廣泛應用密切相關。然而,如果簡單地將這些問題歸因于算法之惡,便可能遮蔽真正的責任主體與改進機制。數(shù)智時代的未來,取決于數(shù)據(jù)、算法和算力,更取決于人們對技術和社會的想象:選擇何種技術路徑、建立何種治理機制、追求何種社會目標,以及用何種路徑更好地實現(xiàn)它們。
原文 :《不宜將算法污名化》
作者 |華東師范大學哲學系教授 吳靜
圖片 |網(wǎng)絡
在數(shù)智技術的日益普及和數(shù)字經(jīng)濟的快速發(fā)展之下,算法已經(jīng)在事實上成為數(shù)字化背后“看不見的手”。隨著人文社會科學領域?qū)ο嚓P問題的研究不斷推向深入,對算法的批判聲音也日益強烈。部分學者將算法視為造成社會不公正的背后黑手,認為其以客觀中性之名行隱蔽控制之實,剝奪了用戶的自主決策權。更有觀點將算法歧視、數(shù)字鴻溝等社會問題直接歸因于算法的技術特性。這種批判性的話語在揭示技術權力運作機制方面具有重要價值,它喚醒了公眾的技術意識,同時也推動了算法問責和算法公平的考量。但如果對算法的理解失之偏頗,便容易陷入“算法污名化”的誤區(qū),從而不但將算法簡單化為控制工具,使其成為數(shù)字時代一切問題的替罪羊,忽視數(shù)智風險和非正義的更多可能性因素,更將特定歷史階段的算法應用固化為算法的永恒屬性,否定了算法本身的功能和優(yōu)化空間。
![]()
算法的功能:數(shù)據(jù)處理的問題框架
理解算法,首先要理解其技術本質(zhì)。算法并非神秘的黑箱,而是一套形式化的計算規(guī)則,其核心功能在于將離散的數(shù)據(jù)轉(zhuǎn)化為可用的信息。零散的、非結構化的數(shù)據(jù)意義有限,它必須經(jīng)過被提取、精煉以及再組織,才能有效地呈現(xiàn)出信息。在這一轉(zhuǎn)化過程中,算法扮演的是“問題式”的角色,決定了數(shù)據(jù)在何種意義上可以被組織、關聯(lián)和闡釋。它更像是一個具有明確執(zhí)行任務的項目組,其輸出結果取決于輸入數(shù)據(jù)、模型架構與優(yōu)化目標的三重配置。而它的應用則不受行業(yè)領域的限制,只和具體要實現(xiàn)目標的路徑相關。以推薦算法為例,同樣的協(xié)同過濾技術,既可以用于商業(yè)營銷,又可以用于學術文獻推送或公共衛(wèi)生信息傳播;同樣的預測模型,既可以服務于金融風控,又可以應用于流行病預警。
從這個意義上而言,算法的應用的確是中性的,算法及其輸出結果卻未必是中性的。究其原因,未必純粹是算法的錯。以算法歧視為例。招聘篩選中的性別偏見、司法輔助中的種族差異、信用評估中的階層歧視,確實令人憂慮。但這些歧視往往并非源于計算過程本身,而是源于訓練數(shù)據(jù)的歷史積淀與優(yōu)化目標的單一設定。當數(shù)據(jù)承載著歷史上的不平等結構時,算法執(zhí)行的結果必然會放大這種不平等的可計算性。從實證案例來看,多數(shù)算法歧視是社會偏見在算法系統(tǒng)中的再生產(chǎn),而非算法的原罪。
![]()
更重要的是,算法的功能性特征恰恰為其改進提供了可能。與人類的隱性偏見不同,算法的決策規(guī)則是形式化、可追蹤的,這意味著歧視性輸出可以通過技術手段被識別、度量和修正。近年來興起的“公平性機器學習”研究正是通過調(diào)整損失函數(shù)、引入約束條件、改進采樣方法等技術路徑,在保持預測精度的同時降低群體間的差異,解決算法對歷史數(shù)據(jù)中隱含偏見的繼承問題,實現(xiàn)算法決策的公平與公正。這種技術性的糾偏雖然不能完全消除社會不平等,卻提供了一種比傳統(tǒng)人文批判更為精確的問題解決工具來平衡算法效率與社會公平。但由于公平的定義本身就具有多元性,即便是單一的問題,其背后也可能牽涉到復雜的社會關系與價值訴求。被算法定義的公平是否能與特殊情境以及用戶訴求相匹配就是另外的問題了。
算法問題的歸因
當前數(shù)字治理中的諸多亂象,如信息繭房、勞動異化、隱私侵蝕、責任模糊等,確實與算法的廣泛應用密切相關。但簡單地將這些問題歸因于算法之惡,便可能遮蔽真正的責任主體與改進機制。事實上,只有區(qū)分“算法缺陷”與“算法濫用”兩類不同類型問題的歸因,才能真正解決算法所造成的負面效應。
算法缺陷指的是技術實現(xiàn)層面的不足,包括數(shù)據(jù)質(zhì)量瑕疵、模型泛化能力有限、穩(wěn)健性不足、可解釋性差等。它屬于算法在技術實現(xiàn)上的“先天不足”,而非道德化的瑕疵:例如,人臉識別算法在特定膚色群體上的準確率偏低、自動駕駛系統(tǒng)在極端天氣下的決策失誤,等等。這顯然不是算法的“歧視”或“不公”,其解決路徑也主要是技術性的,需要通過改進數(shù)據(jù)采集與清洗流程、優(yōu)化模型架構與訓練策略、引入人機協(xié)同的混合決策機制等。
算法濫用則指的是技術應用層面的失當,包括目標設定偏離公共利益、應用場景超出合理范圍、責任機制缺失導致權力濫用等。這類問題通常表現(xiàn)為,算法的技術功能正常,但其使用方式違背了社會倫理或法律規(guī)范。例如,平臺利用信息優(yōu)勢實施價格歧視、雇主借助算法監(jiān)控過度壓榨勞動者、政府機構運用預測性警務擴大社會控制,都屬于算法濫用的范疇。解決這類問題需要依靠制度性監(jiān)管,要明確算法應用的負面清單、建立算法審計與問責機制、保障用戶知情權與申訴權、推動算法治理的多元參與等。將一切問題推至算法本身,恰恰可能在現(xiàn)實中回避了對權力監(jiān)督與制度改革的迫切需求。
![]()
算法的邊界:從剛性約束到動態(tài)閾限
很多人文學者對算法的批判往往聚焦于其以可計算的方式處理人類經(jīng)驗中那些難以被量化的維度。這當然捕捉到了算法認知的局限,即形式邏輯無法完整映射生活世界的復雜性,數(shù)據(jù)化主體與真實主體之間存在不可消除的張力。然而,算法的邊界本身并非剛性不變的物理定律,它是隨著技術發(fā)展而動態(tài)拓展的閾限。回顧人工智能的演進史,從符號主義的規(guī)則推理到連接主義的神經(jīng)網(wǎng)絡,從淺層學習到深度表征,算法的“理解”能力已在多個維度實現(xiàn)突破。自然語言處理中的語境建模、計算機視覺中的情感識別、強化學習中的策略適應,都可以在不同程度上實現(xiàn)適配情境的挑戰(zhàn)。
需要承認的是,當前算法的邊界依然顯著。在需要價值判斷的規(guī)范性領域、依賴默會知識的實踐性領域以及涉及創(chuàng)造性轉(zhuǎn)化的審美性領域,算法的表現(xiàn)仍不盡如人意。但這種局限應當被理解為暫時的技術約束或設計缺陷,而非算法的“惡性”本質(zhì)。需要注意的是,算法的邊界還體現(xiàn)在其與社會系統(tǒng)的互動關系中。批判者常將算法視為凌駕于社會之上的凝視體系,卻忽視了算法本身也在設計環(huán)節(jié)、數(shù)據(jù)結構和用戶反饋中被社會結構所反塑。事實上,算法從來不是單向度的控制裝置,而是嵌入在復雜的社會技術網(wǎng)絡中的行動者。用戶對推薦結果的點擊反饋、司機對平臺派單的策略性響應、消費者對價格歧視的規(guī)避行為,都在不斷調(diào)整算法的運行參數(shù)。這種算法的反身性意味著,算法的邊界一直取決于技術設計者、平臺運營者、終端用戶之間的動態(tài)博弈。
![]()
可改進性:在技術批判與技術建設之間
與將一切數(shù)字應用問題的負效應指向算法的批判趨勢形成對照的是,算法領域近年來展現(xiàn)出顯著的可改進性。這種改進不僅體現(xiàn)在技術性能的提升上,更體現(xiàn)在價值目標的實現(xiàn)與治理機制的完善上。從技術層面來看,算法的迭代優(yōu)化呈現(xiàn)多個積極趨勢:公平性約束優(yōu)化方法打破了單一追求預測精度的傳統(tǒng)優(yōu)化模式,通過在訓練過程中引入群體公平性或個體公平性的數(shù)學定義,避免模型因繼承訓練數(shù)據(jù)中的隱含偏見,使模型輸出在統(tǒng)計意義上更加均衡;“可解釋人工智能”的研究開發(fā)了特征重要性分析、注意力可視化、反事實解釋等多種技術,使算法的決策邏輯對人類更為透明;在穩(wěn)健性維度上,對抗訓練、分布外檢測、不確定性量化等方法提升了算法在復雜環(huán)境下的可靠性。
價值層面的多元嵌入也日益受到重視。早期的算法優(yōu)化往往以單一目標為導向,容易導致價值偏頗。但當代算法設計已開始探索多目標優(yōu)化、價值敏感設計、倫理影響評估等方法,嘗試在技術開發(fā)的早期階段引入多元利益相關者的參與。當然,算法治理也不能僅依賴技術自我改進,需要通過制度性的監(jiān)管框架來保證算法用對、用好、服務于人。這就使得治理同時必須聚焦于兩個層面:在技術上,需要切實推動算法審計的標準化與第三方化,建立性能測試與公平性評估的基準數(shù)據(jù)集;在制度上,則需要完善算法備案、影響評估、責任追究的法律框架,明確平臺企業(yè)的算法治理義務。
值得強調(diào)的是,算法的可改進性并不意味著所有問題都能通過技術解決。有些價值沖突具有根本性的不可調(diào)和特征,有些社會不平等需要超越技術層面的結構性變革。但承認算法的可改進性,意味著拒絕“算法萬惡”的還原主義錯誤,保持對技術優(yōu)化空間的積極期待,并在具體情境中探索技術改進與制度變革的最佳結合點。
在數(shù)智社會,算法具有真實的權力屬性,這種權力需要被審視、被約束、被問責;它也存在真實的邊界局限,這種局限同樣應該被承認和改進。面對數(shù)智化時代的挑戰(zhàn),人文社會科學的獨特貢獻恰恰在于深入技術運作的內(nèi)在邏輯,揭示其與社會系統(tǒng)的復雜互動,并為技術改進提供價值指引與制度框架。這意味著,學者需要既保持對技術權力的敏感與警惕,又承認技術優(yōu)化的可能與必要;既堅守人文價值的終極關懷,又避免將價值與技術的對立絕對化。
![]()
數(shù)智時代的未來,取決于數(shù)據(jù)、算法和算力,更取決于人們對技術和社會想象:選擇何種技術路徑、建立何種治理機制、追求何種社會目標,以及用何種路徑更好地實現(xiàn)它們。在這一意義上,算法既是問題,又是解決問題的工具。不宜將算法污名化,并部署對技術問題的回避,它是以更開放性的態(tài)度面對技術的可能性:因為不斷地對解決問題的路徑進行迭代優(yōu)化,正是算法的進行時,同時也是數(shù)智化時代人文精神走向成熟的體現(xiàn)。
文章為社會科學報“思想工坊”融媒體原創(chuàng)出品,原載于社會科學報第2000期第6版,未經(jīng)允許禁止轉(zhuǎn)載,文中內(nèi)容僅代表作者觀點,不代表本報立場。
本期責編:程鑫云
![]()
《社會科學報》2026年征訂
點擊下方圖片網(wǎng)上訂報↓↓↓
![]()
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.