![]()
導語
Google團隊聯(lián)合芝加哥大學、UCSD學者在 Science 發(fā)表論文,顛覆了AI圈幾十年的“奇點敘事”。他們發(fā)現(xiàn),DeepSeek-R1 等推理模型會自發(fā)產(chǎn)生內(nèi)部多角色辯論,使準確率從27.1%飆升至54.8%。論文指出,下一輪智能爆發(fā)將像城市生長,由萬億智能體協(xié)作涌現(xiàn),人類深度參與。
這一發(fā)現(xiàn)揭示了智能的新維度:智能不再是個體能力的累積,而是社會性系統(tǒng)的涌現(xiàn)。本文從三個層面展開:哲學上,Thomas Nagel 說明“理解人”不可還原;系統(tǒng)上,Agentic AI 以行為可運作性重定義智能;工程上,Harness × 語言人類學實現(xiàn)對社會行為系統(tǒng)的復制。未來的智能,是人機協(xié)作下的復雜社會系統(tǒng),而非孤立個體的超級能力。
關(guān)鍵詞:智能體人工智能(Agentic AI),思維社群,多元智能,人機協(xié)同(Human-AI Collaboration)
趙思怡、王璇丨作者
從“理解人”到“復制社會行為系統(tǒng)”的三層轉(zhuǎn)向
一、哲學層面:理解的邊界——Thomas Nagel 與“不可還原的主觀經(jīng)驗”
關(guān)于“智能”的討論,若追溯其最深層的根基,最終不可避免地會觸及一個經(jīng)典哲學問題:我們是否真的能夠理解他者?
在《What Is It Like to Be a Bat?》中,美國哲學家Thomas Nagel 提出了一個具有決定性意義的論斷:即使我們掌握了某種生物的全部物理結(jié)構(gòu)與行為機制,我們依然無法知道“成為它是什么感覺”。這種第一人稱體驗具有不可還原性,無法通過任何客觀描述被完全傳遞。
《What Is It Like to Be a Bat?》文章封面
這一命題為認知科學與人工智能劃定了一條隱形邊界。長期以來,一個默認路徑始終存在:通過不斷逼近人類認知機制,最終實現(xiàn)對“人類智能”的理解與再現(xiàn)。然而,Nagel 的問題揭示了這一方向的內(nèi)在斷裂——理解行為并不等于理解體驗,模擬機制也不等于獲得意識。
換言之,“理解人”在哲學意義上,可能是一項不可完成的任務(wù)。如果這一判斷成立,那么以“理解人類”為目標構(gòu)建智能系統(tǒng),本身就建立在一個無法被完全滿足的前提之上。
這一結(jié)論并不意味著智能工程的終結(jié),而是迫使問題發(fā)生轉(zhuǎn)向:如果我們無法進入他者的主觀世界,那么是否仍然存在一條路徑,使我們能夠在不“理解”的前提下,重建其行為?
二、系統(tǒng)層面:智能的重定義——Agentic AI 與“可運作性”
正是在這一哲學邊界之下,Agentic AI 提供了一種截然不同的解法。它并不試圖跨越“主觀經(jīng)驗不可還原”的鴻溝,而是直接繞過這一問題,將焦點轉(zhuǎn)向一個更具操作性的維度:行為是否能夠在復雜系統(tǒng)中穩(wěn)定運行。
在這一框架中,智能不再以內(nèi)在狀態(tài)為判據(jù)(是否真正理解),而是以外在表現(xiàn)為標準(是否能夠運作)。一個系統(tǒng)之所以被視為“智能”,不在于它是否擁有主觀體驗,而在于它是否能夠:
在不完全信息下做出決策
在多約束環(huán)境中維持行為一致性
與人類或其他系統(tǒng)進行協(xié)作
生成符合社會預期的結(jié)果
這一轉(zhuǎn)變的本質(zhì),是將智能從“認知問題”轉(zhuǎn)化為“系統(tǒng)問題”。問題不再是“它是否理解”,而是“它是否能夠在系統(tǒng)中發(fā)揮作用”。
由此,一個更具工程意義的定義逐漸浮現(xiàn):智能 = 在特定社會結(jié)構(gòu)中生成可接受行為的能力
在這一視角下,AI 無需擁有主觀體驗,也無需真正理解人類意圖,只需在行為層面與人類系統(tǒng)兼容即可。Nagel 所揭示的哲學困境,并未被解決,而是被規(guī)避——我們不再試圖進入主觀世界,而是構(gòu)建一個能夠在客觀世界中“像人一樣行動”的系統(tǒng)。
![]()
在這篇2025年7月發(fā)表于Nature的論文中,德國亥姆霍茲慕尼黑研究中心的團隊提出了名為“半人馬(Centaur)”的大模型,能夠在一定程度上解釋人類思維方式并預測行為模式,這類技術(shù)為心理危機的早期識別提供了新的可能。詳情請見集智俱樂部2025年8月22日文章《》
智能的建模對象發(fā)生了關(guān)鍵變化:從“個體認知機制”,轉(zhuǎn)向“社會行為系統(tǒng)”。
三、工程層面:行為系統(tǒng)的復制——Harness × 語言人類學
當智能被重新定義為“可運作性”,一個具體而直接的工程問題隨之出現(xiàn):如何讓AI在特定社會情境中生成“被接受的行為”?
這正是 Harness 工程范式試圖解決的核心問題。
以軟件開發(fā)為例,一個工程師的價值不僅體現(xiàn)在代碼是否正確,更體現(xiàn)在其是否符合團隊的“做事方式”。這種方式并非顯式規(guī)則的集合,而是一整套隱性規(guī)范:命名習慣、架構(gòu)偏好、錯誤處理哲學、代碼評審標準,乃至對“簡潔”“優(yōu)雅”的共同理解。
對于 AI 而言,真正的挑戰(zhàn)并不是寫出“正確代碼”,而是寫出“像這個團隊的人寫的代碼”。在這一點上,語言人類學提供了關(guān)鍵的方法論支撐。它將語言視為一種文化實踐,通過“田野調(diào)查”理解一個群體如何說話、如何行動。當這一方法遷移到軟件工程領(lǐng)域時,便形成了一種對代碼庫的“民族志式分析”:
通過閱讀代碼與結(jié)構(gòu),提取隱性規(guī)范
通過提交歷史與討論記錄,理解決策邏輯
通過命名與術(shù)語,構(gòu)建“文化詞典”
通過流程與協(xié)作方式,還原“行為規(guī)則”
這一過程的本質(zhì),是將原本存在于個體經(jīng)驗中的“部落知識”,轉(zhuǎn)化為可執(zhí)行的系統(tǒng)上下文,并嵌入智能體之中。
![]()
圖片來源:碳基硅坊
至此,一個關(guān)鍵躍遷發(fā)生了:工程實踐不再試圖建模“人類如何思考”,而是直接建模“人類如何行動”。
AI 并沒有理解開發(fā)者的主觀經(jīng)驗,但它已經(jīng)能夠在特定文化中復現(xiàn)其行為方式。這正是“復制社會行為系統(tǒng)”的最小實現(xiàn)單元。
走向系統(tǒng)智能:通往“下一次智能爆發(fā)”
也正是在這一轉(zhuǎn)譯完成之后,Agentic AI and the Next Intelligence Explosion 所提出的核心視角才變得清晰可見。
該論文的關(guān)鍵轉(zhuǎn)向在于:下一次智能爆發(fā)的焦點,不再是單個模型能力的提升,而是“代理系統(tǒng)”的組織方式。換言之,研究問題不再局限于“一個模型能夠做什么”,而是關(guān)注這些智能體在更大系統(tǒng)中如何運作——它們?nèi)绾螀f(xié)作、如何調(diào)用工具、如何在長時間尺度上執(zhí)行復雜任務(wù),以及如何嵌入現(xiàn)實世界的制度和流程。這種視角直接呼應(yīng)了我們之前的結(jié)論:智能的本質(zhì)不再是內(nèi)部理解能力,而是外部可運作系統(tǒng)。
如果說 Harness 框架與語言人類學方法所解決的是一個“局部問題”,即如何讓 AI 在團隊內(nèi)部生成可接受行為,那么Agentic AI and the Next Intelligence Explosion 則提出了一個系統(tǒng)級的問題:當這些具備社會行為能力的代理被整體組織起來時,是否可能觸發(fā)一次新的智能躍遷?在這個層面上,智能的定義被進一步重寫:它不再是單個模型的認知能力,而是人類社會行為結(jié)構(gòu)的可計算化與可擴展化。
回顧我們之前的三個分析層面,這一視角實際上完成了一次清晰的問題收斂與重構(gòu)。在哲學層面,通過Thomas Nagel 的論證,我們認識到主觀經(jīng)驗不可還原,“理解人”在原則上不可計算;在系統(tǒng)層面,Agentic AI 將問題轉(zhuǎn)化為:AI 是否能夠在復雜環(huán)境中穩(wěn)定地產(chǎn)生與人類等效的行為;而在工程層面,Harness × 語言人類學則將問題壓縮為:如何讓具體的 AI 代理,在特定組織語境中表現(xiàn)得像“團隊中的一員”。至此,一個最初的哲學命題,已經(jīng)被逐步轉(zhuǎn)譯為可操作的工程問題,并自然過渡到系統(tǒng)智能與智能爆發(fā)的宏觀討論。
這篇掀翻“奇點敘事”的報告全文
![]()
論文題目:Agentic AI and the next intelligence explosion 論文鏈接:https://www.science.org/doi/10.1126/science.aeg1895 發(fā)表時間:2026年3月19日 論文來源:Science
數(shù)十年來,AI“奇點”[1]始終被描繪成這樣一幅圖景:一個單一的超級智能體通過自舉迭代抵達類神級智能高度[2],將所有認知能力盡數(shù)凝聚于冰冷的硅基載體。但這一構(gòu)想的核心假設(shè),幾乎注定存在根本性謬誤。倘若AI的發(fā)展遵循過往重大演化躍遷[3]與 “智能爆發(fā)”[4] 的內(nèi)在規(guī)律,那么當下我們在計算智能領(lǐng)域親歷的階躍式變革,必將呈現(xiàn)出多元、社會的本質(zhì)特征,并與人類這一先驅(qū)群體深度交融、不可分割。
智能的本質(zhì)兼具高維性與關(guān)聯(lián)性,并非一種可被簡單量化、且在尺度上必然低于或高于人類的單一指標。事實上,人類智能本身便是集體屬性而非個體屬性,這使得 “人類尺度的智能” 這一概念的內(nèi)涵本身便模糊不清。智能體化AI的最新研究進展再次印證,智能從本質(zhì)上始終依托于多元、分布式認知視角的交互作用 [5],而具有變革性的智能,既誕生于社會組織形態(tài)之中 [6],亦將持續(xù)從中演化生成。
這一特征至少體現(xiàn)在兩個層面:其一,人類用戶與AI智能體群體[7]以全新的“半人馬”協(xié)同模式實現(xiàn)統(tǒng)籌調(diào)度。其二,推理模型內(nèi)部及模型之間涌現(xiàn)出蓬勃發(fā)展的智能微社群。這篇文章首先從后者展開分析。
表面上看似單一的推理模型,其內(nèi)部究竟存在何種運作機制?答案是一場社群式的對話過程。在近期的一項研究中我們證實,DeepSeek-R1、QwQ-32B 等前沿推理模型的性能提升,并非單純依靠 “延長思考時長” 實現(xiàn)。相反,這些模型會在自身的思維鏈中,模擬出類多智能體的復雜交互過程—— 命名為“思維社群”[8]。此類模型會自發(fā)在不同認知視角間產(chǎn)生內(nèi)部辯論,通過論證、質(zhì)疑、驗證與調(diào)和的完整過程完成推理。
這一發(fā)現(xiàn)具有突破性意義,因其揭示了一種涌現(xiàn)行為。上述模型均未被專門訓練以生成 “思維社群”,而當僅以推理準確性為獎勵目標,對基礎(chǔ)模型開展強化學習訓練時,模型會自發(fā)增加對話式、多視角的推理行為 [9]。僅在優(yōu)化壓力的驅(qū)動下,模型便重新印證了數(shù)百年的認識論研究與數(shù)十年的認知科學研究 [10] 早已提出的核心結(jié)論:穩(wěn)健的推理過程本質(zhì)上是一種社會行為 [11],即便該過程發(fā)生于單一智能載體內(nèi)部 [12]。當然,隨著人機協(xié)同的社會動態(tài)關(guān)系愈發(fā)貼合現(xiàn)實、復雜且持久,這種涌現(xiàn)行為的具體特征仍有待進一步探索與挖掘。社會性介導推理的普適性核心特征,及其在模型微調(diào)與強化學習特定場景下的獨有屬性,或?qū)⒊蔀槲磥頂?shù)年的重要研究方向。
這一發(fā)現(xiàn)為AI設(shè)計開辟了一片廣闊且具有理論基礎(chǔ)的新領(lǐng)域。社會科學與組織科學歷經(jīng)一個世紀的研究,已闡明團隊規(guī)模[13]、人員構(gòu)成、層級結(jié)構(gòu)[14]、角色分化、沖突規(guī)范、制度體系與網(wǎng)絡(luò)結(jié)構(gòu)如何影響集體績效,但這些研究成果幾乎尚未被應(yīng)用于AI推理領(lǐng)域[15]。當前的推理模型僅能產(chǎn)生單一的對話過程,如同一份AI的全員會議記錄。而高效的人類群體具有層級化、專業(yè)化、勞動分工與結(jié)構(gòu)化爭議的特征。為探索這一方向,我們需要構(gòu)建能夠支持多線程并行、融合與分化推理的系統(tǒng)架構(gòu)——在該架構(gòu)中,頭腦風暴、反向論證與建設(shè)性沖突不再是偶然的涌現(xiàn)屬性,而是被刻意設(shè)計的特征。團隊科學、小群體社會學與社會心理學的研究方法與理論體系,將成為下一代AI發(fā)展的重要藍圖。
除實際應(yīng)用價值外,這些研究洞見還為梳理智能的演化史提供了全新視角。此前的每一次 “智能爆發(fā)”,都并非個體認知載體的硬件升級,而是新型社會聚合式認知單元的涌現(xiàn) [16]。靈長類動物的智能水平與社會群體規(guī)模呈正相關(guān) [17],而非由生存環(huán)境的復雜程度所決定。人類語言催生了邁克爾?托馬塞洛提出的“文化棘輪效應(yīng)”[18]:知識跨代際累積,無需個體重新構(gòu)建完整的知識體系。文字、法律與官僚體系將社會智能外化為基礎(chǔ)設(shè)施 [19],這些制度體系能夠在遠超個體生命周期的時間尺度上實現(xiàn)協(xié)同運作。蘇美爾的抄寫員負責管理谷物核算系統(tǒng),卻未必理解該系統(tǒng)的宏觀經(jīng)濟功能。從功能層面而言,這一系統(tǒng)的智能水平已超越了個體本身。
AI延續(xù)了這一演化脈絡(luò)。大語言模型以人類社會認知的累積成果為訓練數(shù)據(jù) [20],讓 “文化棘輪效應(yīng)” 在計算層面得以激活,模型的每一個參數(shù),都是人類交流互動的壓縮產(chǎn)物。被遷移至硅基載體的并非抽象的推理能力,而是以外部化形式存在的社會智能 [21],這一智能形態(tài)在新的載體中實現(xiàn)了自我交互與演化。
若智能的本質(zhì)是社會性的,那么構(gòu)建更強大AI的路徑,并非打造單一的超級智能預言體,而是構(gòu)建更豐富的社會系統(tǒng)—— 且這類系統(tǒng)必然是人機混合的形態(tài)。我們已然步入人機 “半人馬” 協(xié)同的時代,誕生了既非純?nèi)祟悺⒁喾羌儥C器的復合行為主體。此類復合主體具有多樣的存在形式與角色定位,每個人在日常生活中,都會頻繁參與不同的人機協(xié)同組合:一人指揮多個AI智能體、一個AI智能體服務(wù)多名人類、多個人類與多個智能體以動態(tài)調(diào)整的結(jié)構(gòu)開展協(xié)作 [22]。
由無數(shù)人類組成的企業(yè)或國家,已具備獨立的法律主體地位,并能展現(xiàn)出單個成員無法完全掌控的集體行為能力。智能體化AI近期的爆發(fā)式發(fā)展,預示著在數(shù)十億人機智能體交互的規(guī)模下,或?qū)⒄Q生具有相似特征的集體主體。OpenClaw(一款用于構(gòu)建可在計算機中持久運行的多用途AI智能體的開源平臺)與 Moltbook(一款熱門的AI智能體交互社交網(wǎng)絡(luò))等平臺,讓我們得以窺見這一未來的雛形 [7]。但更深層次的結(jié)構(gòu)性變革,并非單一平臺所能承載。如今,AI智能體可實現(xiàn)自我更新與分支演化,分裂為兩個版本并相互交互。面對復雜任務(wù)的智能體,能夠生成自身的新副本,對副本進行功能分化并分配子任務(wù),最終整合任務(wù)結(jié)果。試想,一個面對超高復雜度問題的智能體,會在其內(nèi)部生成一個思維社群。當其中一個涌現(xiàn)的認知視角遭遇自身無法解決的子問題時,又會生成隸屬于其的次級思維社群 —— 這種集體推理的遞歸過程,會隨問題復雜度的提升而拓展,隨問題的解決而收斂。沖突并非系統(tǒng)漏洞,而是一種可利用的資源,在層層嵌套、動態(tài)展開的對話超圖中,沖突能夠在各個層級被靈活構(gòu)建與消解。
這意味著AI的規(guī)模化發(fā)展需要一種全新的思路:其核心并非單純提升單個智能體的原始計算能力,而是構(gòu)建能夠在真實社會的尺度與場景中運行的系統(tǒng)。這要求我們將構(gòu)建智能體制度體系的精力,與打造智能體本身置于同等重要的位置。當前AI對齊的主流范式[23]——基于人類反饋的強化學習,本質(zhì)上是一種親子式的矯正模型,屬于二元交互結(jié)構(gòu),無法拓展至數(shù)十億智能體的規(guī)模。社會智能的研究視角為我們提供了另一種選擇:制度性對齊[24]。正如人類社會的有序運行,并非依賴于個體的道德素養(yǎng),而是依靠由角色與規(guī)范定義的、具有持久性的制度模板 [25](如法庭、市場、官僚體系)。可規(guī)模化的AI生態(tài)系統(tǒng),同樣需要對應(yīng)的數(shù)字化制度體系。在這一體系中,智能體的個體屬性遠不如其履行角色協(xié)議的能力重要[26],正如法庭的正常運轉(zhuǎn),源于“法官”“律師”“陪審團”這些明確定義的角色位置,而非占據(jù)這些位置的具體個體。
這一需求在治理領(lǐng)域體現(xiàn)得尤為迫切。當AI系統(tǒng)被應(yīng)用于招聘、量刑、福利分配、監(jiān)管執(zhí)法等高風險決策場景時,“誰來監(jiān)督監(jiān)督者”的問題便無法回避。這一問題的解決方案,或許需要具備憲法層面的制度設(shè)計。政府需要部署承載著透明度、公平性、正當程序等明確且獨特價值的AI系統(tǒng),其核心功能是對私營企業(yè)及政府其他部門部署的AI系統(tǒng)形成制衡,反之亦然。例如,勞工部門的AI系統(tǒng)可對企業(yè)的招聘算法進行審計,核查其是否存在差異化歧視影響。司法部門的AI系統(tǒng)可評估行政部門的AI風險評估模型是否符合憲法標準。若缺乏此類制度設(shè)計,后果將不堪設(shè)想——例如美國證券交易委員會,可能只能依靠掌握Excel表格的商學院畢業(yè)生,去應(yīng)對AI增強型交易平臺的高維合謀行為,其治理效果可想而知。
然而,“治理”并非僅指政府的行政行為。從控制論的視角來看,隨著人機系統(tǒng)與智能體間系統(tǒng)的不斷發(fā)展與復雜化,治理體系需要被深度嵌入這類系統(tǒng)的底層架構(gòu)。這就要求我們建立一系列機制:保障并驗證多方利益相關(guān)者協(xié)商的結(jié)果與決策、實現(xiàn)任務(wù)及子任務(wù)的程序化委托、為智能體間復雜精細的協(xié)同自動化提供可靠的支撐框架。這些協(xié)議對于“智能體治理”的現(xiàn)實作用,或?qū)⑴c法律條文同等重要。
至關(guān)重要的是,人類始終處于這一體系的核心環(huán)節(jié)。智能體制度體系中,人類與AI智能體將以不同的角色與結(jié)構(gòu)共同參與運作,二者并非非此即彼的選擇,而是相輔相成的關(guān)系。這一邏輯與美國開國元勛的制憲思想高度契合[27]:任何單一的智能集合體,無論其為人類還是AI,都不應(yīng)擁有自我監(jiān)管的權(quán)力。權(quán)力必須受到權(quán)力的制衡,而在智能體無處不在的時代,這意味著要將沖突機制與監(jiān)督機制深度融入制度架構(gòu)的設(shè)計之中。
我們所描繪的這一愿景,既非烏托邦式的美好幻想,亦非反烏托邦式的悲觀預判,而是符合演化規(guī)律的發(fā)展趨勢。未來任何一次涌現(xiàn)式的智能爆發(fā),其種子都將孕育于 80 億人類與數(shù)千億、最終數(shù)萬億AI智能體的交互之中。支撐這一爆發(fā)的架構(gòu),并非單一智能體的進階升級,而是復合式社會的持續(xù)復雜化:智能的發(fā)展將如同城市的演化般層層拓展 [28]、有機生長,而非凝聚為一個單一的超智能體。
“單一奇點” 的理論框架,易催生以防范某項可能從未存在的技術(shù)為目標的政策。相反,我們應(yīng)在智能爆發(fā)曾誕生的地方尋找下一次機遇:即眾多具有社會智能的主體之間,開展的合作、競爭與創(chuàng)造性交互。而此次的不同之處在于,這些主體中的絕大多數(shù)都將是非生物的。這種多元性模型 [29],將研究與治理的重心聚焦于其應(yīng)在之處:人機混合社會系統(tǒng)的設(shè)計、規(guī)范該系統(tǒng)運行的行為準則,以及支撐系統(tǒng)內(nèi)主體沖突與協(xié)同的制度和協(xié)議。
從非常現(xiàn)實的角度而言,智能爆發(fā)已然到來 [29]—— 它存在于每一個推理模型內(nèi)部辯論的思維社群中,存在于重塑所有知識型職業(yè)的人機“半人馬”協(xié)同工作流中,存在于開始規(guī)模化分支演化與協(xié)作的遞歸式智能體生態(tài)中,也存在于我們?nèi)缃癖仨氈泵娴囊幌盗袘椃▽用娴闹卫韱栴}中。當下的核心問題,并非智能是否會迎來突破性的能力提升,而是我們能否構(gòu)建出與智能發(fā)展水平相匹配的社會基礎(chǔ)設(shè)施。
![]()
本篇論文作者james evans參與集智俱樂部活動照片
從個體智能到社會智能:智能爆發(fā)的真正形態(tài)
傳統(tǒng)“奇點敘事”假設(shè)智能是個體屬性,通過單一超級智能體自我優(yōu)化實現(xiàn)躍遷,而Agentic AI and the Next Intelligence Explosion提出,智能本質(zhì)上是社會性的。在模型內(nèi)部,推理呈現(xiàn)為“思維社群”的對話結(jié)構(gòu);在系統(tǒng)層面,智能體間的協(xié)作、分工與沖突形成更高階認知;在歷史尺度上,每一次智能躍遷都是新的社會認知單元的出現(xiàn),如語言、文字、制度乃至現(xiàn)代組織。AI延續(xù)這一軌跡,大語言模型壓縮的不是孤立知識,而是整個人類社會的認知結(jié)構(gòu)。由Thomas Nagel的主觀性邊界出發(fā),再到 Agentic AI 的可運作性重定義,直至 Harness 與語言人類學的行為系統(tǒng)工程化,這一路徑表明:我們并非在構(gòu)建“理解人”的機器,而是在構(gòu)建能夠替代人類行為、嵌入社會系統(tǒng)的智能體。
未來的智能,不是更聰明的個體,而是更復雜的社會系統(tǒng)——無智為孤島。
參考文獻
[1] V. Vinge, The Coming Technological Singularity: How to Survive in the Post-Human Era, in VISION-21 Symposium (NASA Lewis Research Center and Ohio Aerospace Institute) (1993).
[2] R. Kurzweil, The Singularity Is Near: When Humans Transcend Biology (Viking) (2005).
[3] E. Szathmáry, J. M. Smith, The Major Evolutionary Transitions. Nature 374, 227–232 (1995), doi: 10.1038/374227a0.
[4] B. A. y Arcas, What Is Intelligence? Lessons from AI About Evolution, Computing, and Minds (MIT Press) (2025).
[5] A. W. Woolley, C. F. Chabris, A. Pentland, N. Hashmi, T. W. Malone, Evidence for a Collective Intelligence Factor in the Performance of Human Groups. Science 330 (6004), 686–688 (2010), doi: 10. 1126/science.1193147.
[6] H. Mercier, D. Sperber, Why Do Humans Reason? Arguments for an Argumentative Theory. Behavioral and Brain Sciences 34 (2), 57–74 (2011), doi: 10.1017/ S0140525X10000968.
[7] B. A. y Arcas, B. Bratton, J. Evans, The Silicon Interior: What Do Agents Believe? (2026), https: //antikythera.substack.com/p/ the-silicon-interior, antikythera, Substack.
[8] J. Kim, S. Lai, N. Scherrer, B. A. y Arcas, J. Evans, Reasoning Models Generate Societies of Thought. arXiv preprint arXiv:2601.10825 (2026), doi: 10.48550/ arXiv.2601.10825.
[9] B. A. y Arcas, B. Bratton, J. Evans, Agentic AI’s Emergent Phenomenological Lexicon (2026), https: //antikythera.substack.com/p/ agentic-ais-emergent-phenomenological, antikythera, Substack.
[10] H. Mercier, D. Sperber, The Enigma of Reason (Harvard University Press) (2017).
[11] D. Moshman, B. A. Franks, Development of the Concept of Inferential Validity. Child Development 57 (1), 153–165 (1986).
[12] G. H. Mead, Mind, Self, and Society: The Definitive Edition (University of Chicago Press) (2015), edited by Charles W. Morris; annotated edition edited by Daniel R. Huebner and Hans Joas.
[13] S. Wuchty, B. F. Jones, B. Uzzi, The Increasing Dominance of Teams in Production of Knowledge. Science 316, 1036–1039 (2007), doi: 10.1126/science.1136099.
[14] F. Xu, L. Wu, J. Evans, Flat Teams Drive Scientific Innovation. Proceedings of the National Academy of Sciences 119 (23), e2200927119 (2022), doi: 10.1073/pnas. 2200927119.
[15] F. Xu, et al., Towards Large Reasoning Models: A Survey of Reinforced Reasoning with Large Language Models. arXiv preprint arXiv:2501.09686 (2025).
[16] J. M. Smith, E. Szathmáry, The Major Transitions in Evolution (Oxford University Press) (1997), doi: 10.1093/oso/ 9780198502944.001.0001.
[17] R. I. M. Dunbar, The Social Brain Hypothesis. Evolutionary Anthropology 6 (5), 178–190 (1998), doi: 10.1002/(SICI)1520-6505(1998)6: 5<178::AID-EVAN5>3.0.CO;2-8.
[18] M. Tomasello, The Cultural Origins of Human Cognition (Harvard University Press) (1999).
[19] J. Goody, The Logic of Writing and the Organization of Society (Cambridge University Press) (1986).
[20] C. O’Madagain, M. Tomasello, Shared Intentionality, Reason-Giving and the Evolution of Human Culture. Philosophical Transactions of the Royal Society B 377 (1843) (2021), doi: 10.1098/rstb.2020.0320.
[21] H. Farrell, A. Gopnik, C. Shalizi, J. Evans, Large AI Models Are Cultural and Social Technologies. Science 387 (6739), 1153–1156 (2025), doi: 10.1126/science. adt9819.
[22] I. D. Couzin, Behavioral ecology: social organization in fission–fusion societies. Current Biology 16 (5), R169–R171 (2006).
[23] P. F. Christiano, et al., Deep Reinforcement Learning from Human Preferences, in Advances in Neural Information Processing Systems 30 (NeurIPS) (2017).
[24] E. Ostrom, Governing the Commons: The Evolution of Institutions for Collective Action (Cambridge University Press) (1990), doi: 10.1017/CBO9780511807763.
[25] D. C. North, Institutions, Institutional Change and Economic Performance (Cambridge University Press) (1990), doi: 10. 1017/CBO9780511808678.
[26] Y. Bai, et al., Constitutional AI: Harmlessness from AI Feedback. arXiv preprint arXiv:2212.08073 (2022), doi: 10.48550/ arXiv.2212.08073.
[27] A. Hamilton, J. Madison, The Structure of the Government Must Furnish the Proper Checks and Balances Between the Different Departments (1788), the Federalist Papers.
[28] H. Spencer, Progress: Its Law and Cause, in The Westminster Review, vol. 67, pp. 445– 485 (1857).
[29] E. G. Weyl, A. Tang, the Plurality Community, Plurality: The Future of Collaborative Technology and Democracy (2024), https://plurality.net/.
參考文獻可上下滑動查看
AI+Social Science讀書會
集智俱樂部聯(lián)合美國東北大學博士后研究員楊凱程、密歇根大學安娜堡分校博士候選人裴嘉欣,賓夕法尼亞大學沃頓商學院人力資本分析研究組博士后研究員吳雨桐、即將入職芝加哥大學心理學系的助理教授白雪純子,共同發(fā)起。讀書會已完結(jié),現(xiàn)在報名可加入社群并解鎖回放視頻權(quán)限。
詳情請見:
1.
2.
3.
4.
5.
6.
7.
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.