![]()
IPP評論是國家高端智庫華南理工大學公共政策研究院(IPP)官方微信平臺
![]()
導語:近日,OpenAI首席執行官薩姆·奧爾特曼的住所接連兩次遭到襲擊,其中一位嫌疑人來自知名反AI組織PauseAI的群成員。事件一出,圍繞這起新聞的不同回應與解讀,已反映出技術掌權者與普通大眾之間,在人工智能問題上存在的深層分歧。斯坦福大學近日發布的《2026年人工智能指數報告》也顯示公眾感受與技術精英的樂觀敘事間存在明顯錯位。
IPP特約研究員孫占卿認為,這些不同層面的擔憂,最終都指向同一問題:AI發展過程中,技術、資源與權力日益集中,形成難以追責的“黑箱效應”,并催生出一種帶有“技術專制”色彩的治理傾向。與此同時,國家在競爭壓力下加深對科技企業的戰略依賴,一種介于合謀與替代之間的“影子治理”格局,正逐漸浮現。
![]()
孫占卿 博士
廣州市社會科學院城市文化研究所副所長、IPP特約研究員
2026年4月10日凌晨,OpenAI首席執行官薩姆·奧特曼位于舊金山的住宅遭到一名年輕男子投擲燃燒瓶襲擊,隨后該男子前往OpenAI總部外公開威脅焚燒大樓,并當場被捕。
據調查,其行為源于對超級智能失控導致人類滅絕的極端恐懼。PauseAI組織(呼吁“暫停開發最強大的通用AI”的國際組織,創立于荷蘭)迅速對一切暴力行為予以譴責。
奧特曼隨后在博客中作出回應,承認AI的巨大影響力,坦承過往失誤,并呼吁緩和矛盾,同時表示公眾的部分恐懼具有合理性,但強調暴力絕不可接受。
![]()
奧特曼在博客上發回應長文。
這一事件看似孤立,卻深刻反映出更深層的社會焦慮:公眾對技術專制的恐懼,本質上是傳統政治框架——以政府為核心的公共產品、社會契約與國家主權——在人工智能等超級技術的沖擊下正面臨結構性崩解。
一、公眾的恐懼:從存在風險到隱性支配
這種恐懼并非突發情況,而是AI高速發展中多重張力長期累積的結果。OpenAI作為本輪人工智能浪潮的標桿,其以ChatGPT系列產品為代表的AI項目已深刻重塑全球生產力格局,并將“超級智能”——即超越人類在所有認知領域能力的通用人工智能——從科幻推向現實討論的前沿。
公眾焦慮主要源于四個相互交織的維度。
首先是技術失控的幽靈。眾多專家與活動家擔憂,未經充分“對齊”的超級智能可能脫離人類掌控,引發不可逆轉的災難。
其次是權力的集中。少數科技領袖通過算法掌控信息流動與行為預測,形成事實上的主導影響力,卻借企業架構規避公眾問責。這種私人實驗室主導AGI競賽的模式,被廣泛視為精英對全球資源的壟斷。
再次是經濟社會沖擊。AI驅動的自動化威脅大規模就業替代、隱私侵蝕,并延伸至軍事化應用。
最后是技術濫用的現實鏡像。在2026年2至3月美以聯合打擊伊朗的行動中,美軍廣泛部署AI工具——包括通過Palantir平臺整合Anthropic的Claude語言模型——實現戰場數據實時處理、目標識別與決策加速,將傳統流程從數小時縮短至秒級,這一行動凸顯了AI在現代殺傷鏈中的核心地位。隨后,Anthropic與五角大樓之間關于是否可以移除大模型安全防護的爭執,進一步引發了公眾對技術濫用問題的關注。
這些焦慮可以歸結到一點:AI快速發展中,技術、資源與權力的同頻集中,形成了無法問責的“黑箱效應”,催生了技術專制——即技術精英借助算法、數據與智能系統,實現對社會、經濟乃至政治的隱性支配,而非仰賴傳統政治權威。
但與此同時,AI也展現出顯著的積極貢獻。根據OECD的最新報告,有五分之四的參與調查的工人表示,AI提升了他們的工作績效,五分之三則認為工作變得更有樂趣了;
![]()
北美與歐洲國家對人工智能的總體看法仍集中在“低興奮度”和“高緊張感”的區間。相比之下,中國和印度尼西亞公眾對AI看法則總體樂觀。圖源:The 2026 AI Index Report | Stanford HAI
IMF同期研究顯示,全球近40%的就業崗位受AI影響,先進經濟體這一比例高達60%,同時AI驅動的生產力提升可能使全球GDP累計增長7%至35%。這些益處提醒我們,公眾的焦慮并非對技術本身的否定,而是對治理失衡的警醒。
![]()
國際貨幣基金組織(IMF)與國際勞工組織(ILO)的測算顯示,發達經濟體中暴露于人工智能的就業占比最高。圖源:IMF
二、古典政治的根基:政府是人類最重要的公共產品
政府作為人類創造的最重要的公共產品之一,其核心職能在于制定并執行規則、協調多元利益、維護社會秩序。
霍布斯(Thomas Hobbes)在《利維坦》中指出,主權權威是克服“自然狀態”下無序競爭的唯一途徑——通過社會契約賦予國家對暴力的合法壟斷,以保障秩序與安全。
約翰·洛克(John Locke)進而主張,政府源于人民同意,其正當性在于保護自然權利,并通過分權制衡實現多元利益的協調。
盧梭則在《社會契約論》中深化了集體意志的概念,強調決策合法性源于公民參與,而非單純強制。
這些理論共同回應了現代政府面臨的三大難題:權力的合法性來源、決策中的多元利益表達,以及權力的平穩更迭。韋伯據此將現代國家定義為“成功壟斷合法暴力”的實體。福山甚至據此宣稱“歷史的終結”,認為自由民主國家已實現這些要素的制度化平衡。
在此框架下,國家不僅是領土主權的守護者,更是公共利益的透明代理人。其治理能力依賴于可問責的規則體系。任何外部力量挑戰這一壟斷,卻又試圖不承擔其約束,都可能引發根本的合法性危機。
三、跨國企業挑戰:國家主導權的重申
20世紀后半葉,隨著全球化浪潮席卷各地,跨國公司一度對國家治理模式構成顯著挑戰。這些企業通過經濟滲透、產業鏈全球化和資本自由流動,不僅塑造了一系列有利于自身擴張的全球規則與權力結構,更直接挑戰了傳統國家主權的多個核心維度,最終促使各國政府通過系統性回應與改革,重申并鞏固了其治理主導權。
跨國公司首先塑造了以自由化、靈活化和企業中心為導向的全球經濟規則與權力格局。它們通過游說與資本杠桿,推動雙邊投資協定(BITs)中“投資者-國家爭端解決機制(ISDS)”的普及,使企業得以繞過國內司法程序,直接向國際仲裁庭提出索賠,從而將“投資保護”轉化為事實上的超國家權力工具。
同時,企業利用離岸金融中心和復雜稅務結構(如蘋果公司的“雙層愛爾蘭夾荷蘭三明治”機制),將利潤轉移標準化,塑造了全球稅務規則的灰色地帶,并通過供應鏈標準(如勞工認證體系)間接定義了跨國生產中的環境與社會規范。
這些規則表面上服務于效率最大化,實質上賦予了企業跨越國界的準立法權和資源配置權,將經濟影響力轉化為對全球治理議程的隱性主導。這一塑造過程直接挑戰了傳統國家的核心權力。
首先是財政主權:大規模避稅導致東道國稅收流失,削弱了公共財政能力與福利再分配職能。
其次是監管主權:企業通過生產基地轉移或威脅撤資,規避嚴格的勞工、環境和安全法規,形成“監管競次”現象,侵蝕國家對境內經濟活動的有效控制。
再次是司法與立法主權:ISDS機制使國家立法(如煙草平裝法或環境標準)面臨巨額賠償風險,迫使政府在決策時進行自我審查,模糊了主權平等原則。
最后,挑戰還波及外交與領土主權:企業游說母國干預東道國內政(如1954年聯合果品公司推動美國支持危地馬拉政變),或在資源富集地區建立事實上的“國中之國”,挑戰了威斯特伐利亞體系下的領土完整與政治自治。
![]()
危地馬拉阿本斯政府推行土地改革、觸動聯合果品公司利益后,后者游說美國政府將危地馬拉塑造成蘇聯在西半球的支點。圖源:Wikimedia Commons
面對這些多維度挑戰,國家并未被動退讓,而是展開了系統性的回應與制度改革。
在國際層面,推動多邊規則的深化與再平衡:1995年世界貿易組織的成立,通過爭端解決機制、反傾銷條款和《服務貿易總協定》,將跨國企業的橫向滲透納入可控軌道;經濟合作與發展組織(OECD)發起的BEPS(稅基侵蝕與利潤轉移)行動計劃,以及2021年全球最低公司稅率協議(15%),直接堵塞了避稅漏洞,重塑了國際稅務協調框架。
在國內層面,各國強化監管工具:歐盟推出《通用數據保護條例》(GDPR)和《數字市場法》(DMA);美國通過外國投資審查委員會(CFIUS)強化國家安全審查;部分國家則重新談判BITs,加入公共利益例外條款與環境勞工標準。同時,企業社會責任(CSR)被納入法律強制范疇,推動跨國公司從“規避者”轉向“合規者”。
這些回應與改革最終實現了顯著成效:國家主導權得到實質性重申,跨國企業雖保留全球流動性,卻被牢固錨定于領土主權與可量化的國際規則之下。稅收流失得到遏制,公共財政能力回升;監管競次趨勢逆轉,全球勞工與環境標準整體提升;ISDS(投資者—國家爭端解決)機制的濫用風險下降,企業對主權立法的直接反制能力減弱。
更重要的是,這一博弈過程為當代治理提供了寶貴經驗:它證明國家通過制度創新,能夠在全球化壓力下恢復平衡。國家可以同時維護效率與創新,并捍衛社會契約的核心——透明、可問責與公民同意。
跨國企業的歷史經驗為理解AI挑戰提供了關鍵參照。
四、超級AI企業:縱向滲透與監管陰影
超級AI企業與傳統跨國公司存在本質差異,其技術特性賦予了超越單純經濟滲透的“縱向治理”能力,從而對傳統政治框架構成了更為深刻且結構性的挑戰。
首先,AI的天然跨國界屬性源于數據與算力的全球流動性。
模型訓練依賴海量全球數據集,部署可瞬間跨越國界,無需依賴實體供應鏈。而更為關鍵的,是其“縱向滲透能力”——通過算法、黑箱決策機制和主動規則塑造,AI企業直接介入社會治理的微觀層面。不同于跨國公司的橫向市場影響,AI算法能夠嵌入決策鏈條、預測行為并優化資源分配,形成隱性規則體系:推薦算法重塑公共輿論,信用評分系統左右個體權利,而生成式AI則可直接生成政策模擬或軍事目標清單。
這一滲透伴隨著國家對AI的戰略依賴。為維持國力,政府不得不與AI企業進行深度合作,正如美以對伊朗的軍事行動所示。然而,AI的高技術屬性使其得以“躲藏”于政府與企業治理的“陰影”中:算法黑箱的不透明性、快速自我迭代能力,以及跨學科專業壁壘,導致傳統監管工具——如反壟斷法或數據保護條例——難以奏效。歐盟AI法案或美國行政命令雖試圖填補空白,卻面臨技術滯后與全球協調難題。AI企業由此形成“影子治理”:表面服從國家框架,實質通過技術標準主導規則制定,悄然重塑治理邏輯。
在政治學框架下,AI企業通過其獨特技術屬性,不僅塑造了全新的治理規則與權力結構,更在多個關鍵領域形成了對傳統國家權力的系統性替代與深度合謀,進而加劇了技術專制的風險。這一治理替代機制的核心在于:AI企業不再是被動的市場參與者,而是主動構建了一種“算法主權”——以數據閉環、自我迭代和預測性建模為手段,預設并執行社會規則,從而部分接管了國家傳統上對公共生活的主導權。
具體而言,AI企業塑造的治理替代機制,首先體現在公共話語與議程設置領域。國家通過憲法、法律和公共媒體行使話語規范權,而AI平臺的推薦算法則通過個性化推送、內容優先級排序和趨勢放大,直接定義何種信息被視為“可接受”或“主流”。這一機制超越了單純的信息過濾,形成了一種預設性治理。這實質上替代了國家對公共領域的形塑職能。
其次,在經濟與資源分配治理上,AI驅動的信用評分、勞動力匹配和資源優化系統,已部分取代國家再分配與市場監管角色。
例如,生成式AI可實時生成政策模擬與經濟預測模型,企業借此影響國家決策流程,同時將其私有數據標準轉化為事實上的全球經濟治理規范。
![]()
4月15日,歐盟委員會指控Meta在WhatsApp平臺排擠第三方AI助手的行為違反了《數字市場法案》。圖源:Getty Images
再次,在安全與決策治理層面,AI輔助的殺傷鏈優化(如美以行動中Claude模型的整合)與預測性分析,直接介入國家暴力壟斷的執行環節:算法不僅提供決策建議,還能通過概率模型預判風險、分配資源,甚至模糊責任歸屬,從而在一定程度上替代了傳統官僚體系的審慎判斷。
替代機制進一步衍生出國家權力的深度合謀模式。為維持全球戰略優勢,國家主動將部分治理職能“外包”給AI企業,形成不對稱的“國家-技術寡頭復合體”。政府獲得即時國力提升(如軍事智能化、治理效率);企業則借此獲取合法性庇護、海量數據授權與政策豁免。這種合謀雖強化了短期國家能力,卻削弱了社會契約的平等基礎:公民同意被算法邏輯取代,民主審議過程被技術黑箱架空。
AI企業在責任歸屬上成功脫離有效監管與問責。算法黑箱的不透明性、模型快速自我迭代的能力,以及跨學科的專業壁壘,使傳統監管規則——基于可解釋性、可審計性和屬地管轄——在技術上已嚴重滯后。當算法導致社會危害時,責任往往在“技術中立”或“企業自治”的名義下被稀釋,企業得以游離于傳統企業責任框架之外。
超級AI企業的發展進一步加速了主權碎片化。若任由發展,這種縱向滲透與監管陰影將演變為混合治理模式——國家借助AI強化控制,企業則輸出隱性規范,二者共同侵蝕社會契約的平等基礎。
治理替代機制的形成標志著AI企業已不再是傳統意義上的經濟主體,而是正在崛起的新型治理力量,其對政治架構的沖擊遠超以往任何跨國公司。這一判斷在全球監管實踐中得到印證。根據歐盟AI法案,2025年2月禁止性規定生效,高風險系統規則將于2026年8月全面強制,企業合規成本顯著上升,委員會已提議部分延遲至2027年底以緩解壓力。中國則早在2023年起推行算法備案與生成式AI內容管理法規,側重風險分級與本土化治理。二者形成鮮明對比,卻共同凸顯了現有監管工具面對AI垂直滲透能力的滯后性。
五、反思:合法性危機與數字時代的社會契約
上述差異共同指向技術專制擔憂的深層根源——傳統政治框架的崩解。
社會契約論預設的治理主體是透明、可控的國家,而AI引入的私人技術精英卻掌握“超級智能”潛力,其決策過程缺乏民主審議,違背了洛克式權利保護與盧梭式集體意志。算法治理進一步挑戰韋伯定義的國家暴力壟斷:AI輔助的自主系統模糊責任歸屬,引發合法性赤字。福山式“歷史終結”敘事隨之被顛覆——全球化曾強化國家適應能力,而AI的指數級進步則加速權力向少數企業的集中,形成潛在的技術專制深化形態:數據與模型成為新生產資料,精英掌控分配規則,民眾淪為被動適應者。
這一危機更具全球性。AI的非領土性超越威斯特伐利亞主權體系,迫使國家在合作與依賴間艱難權衡,卻難以重建多元利益表達機制。若任其發展,可能演變為混合治理模式:國家借AI強化控制,企業則輸出隱性規范,二者共同侵蝕社會契約的平等基礎。
這一風險與核技術時代形成歷史呼應:從1946年“巴魯克計劃”(美國駐聯合國原子能委員會代表伯納德·巴魯克提出的國際核能管制方案)到1968年《不擴散核武器條約》,國際社會歷經二十年才建立起多邊監管框架,AI治理同樣需要類似前瞻性制度創新。
面對這一空前挑戰,必須構建超越國家和行業的治理創新。
一方面,強化國際合作,建立類似“超級智能國際原子能機構”的多邊框架,實現透明審計與安全標準。該機構可采用計算力許可閾值、多邊安全審計以及漸進式紅線機制:高算力訓練項目需提前申報、接受第三方紅隊測試,并設定全球統一的安全底線。
另一方面,推動“數字社會契約”,通過公民審議平臺恢復合法性基礎。同時,企業需承擔更高倫理責任,國家則應投資本土AI能力,避免過度依賴。唯有平衡創新與審慎,才可能將技術專制風險轉化為治理現代化的機遇。
本文作者
孫占卿 廣州市社會科學院城市文化研究所副所長、IPP特約研究員
IPP公共關系與傳播中心
排版 | 周浩鍇
校對 | 劉 深
終審 | 劉金程
IPP評論熱門文章
戴明潔:美國加速AI軍事化,硅谷的華人人才怎么辦?
關于IPP
華南理工大學公共政策研究院(IPP)是一個獨立、非營利性的知識創新與公共政策研究平臺。IPP圍繞中國的體制改革、社會政策、中國話語權與國際關系等開展一系列的研究工作,并在此基礎上形成知識創新和政策咨詢協調發展的良好格局。IPP的愿景是打造開放式的知識創新和政策研究平臺,成為領先世界的中國智庫。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.