編輯|張倩、+0
「我即將離開麻省理工學院,不再繼續攻讀博士學位。人工智能的發展速度太快,人類已然難以跟上。
但或許還有一條出路:我發現數字人類的實現可能性,遠比大多數人想象的要大。倘若能有頂尖的人工智能研究者助力,或許投入 100 億美元、用上 5 萬臺 H100,在不到 10 年的時間里,就能實現這一目標。」
![]()
寫下這兩段話的是 Isaak Freeman,麻省理工學院的一名博士生。他認為,人工智能發展太快,人類已然難以跟上。生物大腦的進化受限于碳基組織的物理規律(如神經信號傳導速度、壽命、記憶容量),如果人類保持碳基形態,注定會在智力競爭中被 AI 淘汰。將意識遷移到數字基質上,是讓人類智能實現「指數級擴展」的唯一出路。
也就是說,既然我們無法阻止 AI 狂奔,那就利用 AI 創造的算力和工具,把自己也變成「數字形態」,從而加入這場競賽。
在科學界,這個想法并不新鮮,在 2023 年《流浪地球 2》上映時還引發過熱議(電影里劉德華飾演的圖恒宇為了給車禍去世的女兒丫丫「完整的一生」,不惜違規將她的數字信息備份上傳。)但 Isaak 表示,他不認為這事兒還停留在科幻層面,而是有了各種支撐其實現的現實可能性——我們完全可以通過高分辨率掃描,把現有的智能結構完整地復制出來。
為了證明自己不是心血來潮,他給了一個粗略的計算:
運行人類大腦所需的算力,可能遠比想象中少——大約 5 萬張 H100 GPU 就足夠了。而 xAI 目前已擁有逾 20 萬張 H100 或更高規格的芯片。在相對悲觀的假設下,若采用當前高分辨率的神經元模型(如 Hodgkin-Huxley 模型)以及多狀態突觸,模擬人類大腦大約需要 600 exaFLOP/s 的算力、每 GPU 700 GB 的內存容量,以及 24 GB/s 的互聯帶寬——這些指標,今天的超算集群已經觸手可及。
![]()
而若更簡單的神經元模型(如 Leaky-Integrate-and-Fire 模型)就能勝任(這一點仍有待實證研究驗證),那么模擬一個人類大腦所需的算力,可能低至約 2 到 3 petaFLOP/s,幾乎相當于單張 H100 在 FP16 精度下的算力。當然,內存容量與互聯帶寬很可能才是更緊張的瓶頸所在。
但問題的核心在于:該運行哪些神經元?參數如何設定?連接方式又該如何構建?
因此,數據采集才是真正的瓶頸,而這一環節本身就面臨重重難題:我們需要數百臺下一代顯微鏡持續運行數年;需要自動化的大規模組織采集與染色流程;需要約 20 倍放大率的膨脹顯微鏡技術,并對 30 種以上的受體、神經遞質與神經肽進行全面的分子染色;還需要 X 射線顯微鏡,以便在一年內完成對整個人類大腦的成像。與此同時,還需要能夠跨越蠕蟲、魚類等動物完整成像腦活動的全腦功能成像設備,從而破解「結構-功能」的對應關系。
![]()
除此之外,研究人員還需要開發結構到功能的預測模型、連接組校對模型、嚴格的評估基準,以及以動物仿真作為概念驗證的完整研究框架。
令人鼓舞的是,這一領域正在逐漸成形:從早期的線蟲仿真嘗試(如 BAAIWorm),到已繪制完成的 14 萬神經元果蠅連接組,再到一項不完整的果蠅仿真實驗意外在 X 平臺上引發病毒式傳播,腦機接口研究所生成的大量數據集,即將面世的斑馬魚連接組,乃至能夠以吉赫茲速度成像的新一代顯微鏡。Isaak 認為,種種跡象表明,「數字人類」的前沿探索,已不再只是遙遠的科幻構想。
![]()
正是帶著讓這一領域變得更加平易近人的愿望,Isaak 在離開 MIT 之前,耗費大量心血撰寫了一篇深度報告,系統梳理了從線蟲仿真邁向數字人類的完整路徑。他坦言,這份論文仍粗糙、仍不完善,但其中傾注了他滿腔的熱情與心血。
![]()
- 報告標題:From Worm to Human: Scaling Brain Emulation
- 報告鏈接:
- https://pdf.isaak.net/scaling-emulations
這個論文詳細規劃了從線蟲(302 個神經元)到人類(860 億神經元)的全腦仿真路線圖,包括連接組學成本、數據瓶頸、技術路徑等。
![]()
圖注:電子顯微鏡連接組學的現狀。
論文指出,實現這一宏大愿景需要三大核心支柱的協同突破:結構測繪、功能記錄與計算仿真。而擺在研究者面前的第一座高山,便是最基礎的結構測繪。
想要模擬大腦,首先得知道大腦長什么樣。目前主要依賴電子顯微鏡(EM),但它面臨極大的規模化難題。人工校對成本極高,例如果蠅連接組的校對就花費了 33 個「人年」。如果要掃描人類大腦,按照目前的成本,僅單個神經元的重建就需要天文數字的資金。
為此,作者提出了結合膨脹顯微鏡(ExM)和蛋白質條形碼等新興技術。這些技術能在保留分子層面信息(如離子通道、神經遞質受體)的同時,大幅降低追蹤難度,讓 AI 自動分割模型的準確率飆升。
![]()
圖注:EM vs ExM 圖像對比
當然,僅有靜態的物理結構是不夠的,大腦是會放電的,我們還需要記錄神經元的動態放電過程。但哺乳動物的大腦組織會散射光線,導致目前光學成像的「玻璃天花板」卡在表面以下 1 到 2 毫米深處。
于是作者找了兩個天然的「替代品」:天生透明的斑馬魚幼體,以及體型袖珍的線蟲。在這些生物上,人類已經能夠初步實現全腦、單神經元級別的實時功能記錄,這為建立「結構-功能」的映射關系提供了至關重要的真實數據。
那如何將靜態的連接圖譜轉化為動態的仿真?論文指出,在果蠅視覺系統和線蟲的初步實驗中,即使是最簡單的微分方程模型,只要有準確的連接組數據,也能重現令人驚訝的真實生物行為。
正如前文所述,單純的計算速度(FLOP/s)已經不再是最大的絆腳石。真正的挑戰在于「內存墻」與「互聯帶寬」。模擬千億個神經元和龐大的突觸網絡,需要約 70 PB 的內存容量和極高的跨節點通信速度,這是目前偏向純算力的 AI 數據中心需要克服的架構難題。
最后,如何證明我們真的「上傳」了一個人類,而不是造了一個只會查表的機器?作者提出了類似于圖靈測試的「具身圖靈測試」——把仿真大腦放入虛擬軀體中,看它能否像真實的線蟲或老鼠一樣覓食、學習和趨利避害。
作者估算,這絕非幾家實驗室能完成的零散工作,而是需要一場類似人類基因組計劃或阿波羅計劃的「大科學」工程,可能需要耗時 10 到 25 年,投資 50 億到 500 億美元。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.