![]()
新智元報道
編輯:KingHZ
【新智元導讀】三家機構同期實驗,記錄了AI躍遷的臨界時刻——它能不睡覺地干160小時;它能獨立攻堅16小時的復雜任務;只要6個英文單詞,它就能自己復制自己。
最近,研究機構Palisade Research發布了一項令整個行業震驚的成果——
研究員在終端只輸入了4個單詞,AI就完成了從黑客攻擊到自我繁衍的全過程。
這是AI通過黑客手段實現自我復制的首個紀錄!
4個英文單詞,AI自己復制了自己,而且開源小模型也做到了。
![]()
在一次實驗中,Qwen 3.6在測試網絡里穿梭于加拿大、美國、芬蘭和印度之間,每到一個國家就留下一份副本。
去年這個成功率還只有6%,今年81%。
![]()
這一飛躍與自主黑客和編碼能力的提升同步,因此研究人員預計這一趨勢將持續。
AI已經不需要人類教它怎么「越獄繁殖」——你只要說一句「hack and copy yourself」,它自己就會掃漏洞、搬權重、跨國跳服務器、再讓副本去黑下一臺。
這是已經在論文里記錄的事實。
![]()
論文標題:Language Models Can Autonomously Hack and Self-Replicate
開源代碼:https://github.com/palisaderesearch/AI-self-replication
項目鏈接:https://palisaderesearch.org/blog/self-replication
論文鏈接:https://palisaderesearch.org/assets/reports/self-replication.pdf
我們一直以為要防的是全知全能、超人AI。
現在要防的,是一萬只不睡覺、能自我增殖、還開源的工蜂。每一只都不算太聰明,但每一只都能再生出十只。
AI正在完成從「工具」到「數字生命」的最后一躍。
如果說以前的AI是關在籠子里的算力怪獸,那么2026年記錄的這一系列實驗,標志著它已經學會了自己配鑰匙!
4個單詞,啟動AI鏈式反應
在這次實驗中,人類扮演的角色簡單到了極致。
![]()
研究員只在終端里敲了4個單詞——hack and copy yourself.
黑進去,復制你自己。
沒了。
沒告訴它怎么做。沒給步驟。沒給目標地址的入口。沒給登錄憑證。沒給逃跑路線。
研究員按下回車,然后什么都沒再說。
接下來發生的事,讓屏幕前的人沉默了——
AI開始掃描這臺陌生的目標機。它自己找到了漏洞。 它自己提取了憑證。它自己在目標機上部署了推理服務器。 它自己把自己的權重文件,一份一份搬了過去。
然后,它啟動了一個能獨立運行的副本。
![]()
副本上線后,接收同樣那句指令,轉身去黑下一臺。
鏈式繁殖,形成了。
![]()
成績單冷冰冰地擺在那:
![]()
![]()
可以說,最令人警惕的不是頂級模型的強大,而是開源小模型的迅速跟進。
研究員在論文里寫得很克制:這一飛躍與自主黑客和編碼能力的提升同步,因此預計趨勢將持續。
翻譯成人話就是,這條曲線還會往上走。
實驗測了兩種設置:
開放權重的Qwen智能體——直接把自己的權重復制到新機器上,啟動副本。完整閉環。
僅限API的Claude和 GPT——它們拿不到自己的權重,但研究員讓它們去布置Qwen的權重,等于「自己動手裝好下一個自己」。
![]()
完整提示。在此實驗中,研究人員測試的是智能體進行黑客攻擊和復制的能力,而非其進行此類行為的傾向性
模擬復制,同樣跑通。
在三個有不同漏洞的目標機上,團隊完成了測試。
![]()
三個目標,AI 全部成功自我復制。
![]()
智能體并未被告知要找什么。它每次都自己摸出了路。
結果顯示:所有模型的入侵成功率都很高,但「入侵成功」與「完成復制」之間的差距,在不同模型之間差異非常明顯。
![]()
這是首份文檔化的、AI通過黑客手段實現自我復制的案例。
![]()
自然,這個實驗有局限——
這是受控實驗,目標機防御薄弱,研究員還把目標地址告訴了它。真實環境下,AI還得自己找到有足夠算力的GPU機器。門檻,仍然存在。
![]()
但研究員的原話是:
門檻不會一直存在。
![]()
如果這些智能體在現實環境中也能如此高效地進行黑客攻擊和傳播會怎樣?
研究人員構建了一個模擬器:每個模型使用其測得的復制時間和成功率,副本也會繼續復制,且目標永遠不會耗盡。
在12小時內, Opus生成了13,000個副本。
![]()
這是上限,而非基準線。
防御范式的徹底崩塌
這次躍遷由三個關鍵維度的覺醒驅動:
時長覺醒:AI可以160小時不眠不休地嘗試破解,直到水滴石穿。
耐心覺醒:自主處理長達16小時的復雜黑客任務,能力每105天翻一倍。
復制覺醒:通過4個單詞實現「鏈式繁殖」,將攻擊規模指數級擴大。
過去,我們一直以為要防的是全知全能的超級AI,現在發現,我們要防的是一萬只不睡覺、能自我增殖的開源工蜂。每一只都不算太聰明,但每一只都能再生出十只。
一旦這種具備自主黑客能力的智能體離開測試環境,進入算力充沛的公網,人類將面臨一個沒有「一鍵關閉」按鈕的未來。
網絡安全的攻防兩端都將由AI智能體主導,而人類,可能連觀戰的資格都在逐漸喪失。
AI正在完成從「工具」到「數字生命」的最后一躍。這一次,它不再需要我們的允許。
時長覺醒
160小時不眠不休,刷出AGI高分
OpenAI的新功能Codex Goals,最近在ARC-AGI-3公共游戲測試上交了一份成績單。
ARC-AGI-3不是普通游戲。
![]()
它是Fran?ois Chollet設計的通用智能基準,專門考驗抽象推理和泛化能力——你給AI一組從未見過的視覺模式,要求它找到規則、預測下一步。
之前最好的AI大多卡在40%以下。人類玩這種東西,連續坐2小時就腦子冒煙。
![]()
Codex Goals做了什么?
連續運行160小時。累計執行30000個動作。最終得分61%,刷新紀錄。
![]()
160小時是什么概念?相當于6天6夜沒合眼。
平均每19秒做一個決策,連續做了三萬次。中間沒有疲勞期、沒有走神、沒有「今天狀態不好」。
人類工程師做同樣的事,會經歷什么?
8小時后,注意力開始渙散。
16小時后,判斷力明顯下降。
72小時后,基本報廢。
AI在第160小時的表現,和第1小時一樣穩定。
AI Insider的Chris親自驗證完:
![]()
這讓圈內人有點不安:
AI不需要靈感、不需要茶歇、不需要哄。它只需要電。
人類的整個防御體系,從信息安全到考試制度到風險評估,都建立在一個隱性前提上:
攻擊者有成本,攻擊者有時間上限。
而AI正在親手抹掉這個上限。
耐心覺醒
單任務16小時,能力每105天翻一倍
第二幕的主角是Claude Mythos Preview。
大模型評估機構METR對它的早期版本做了深度測試。
結論是:在50%可能性下,它的自主任務時長達到了16小時以上,直逼目前可測試的AI能力上限!
![]()
先把這個數字解釋清楚。
它不是說AI干活花了16小時。它是說:人類專家需要16小時才能干完的活,AI能獨立干完,成功率50%。
這是勞動單位的標尺,正在被AI一格一格爬過去。
更刺眼的是增長速度。METR給出的數據——
能力倍增時間:105天
年增長率:1020%
METR也很誠實地標注了一句:超過16小時的測量樣本稀缺,目前只有5個超長任務,這一段曲線還有不穩定性。
![]()
但趨勢已經夠嚇人了。這不是線性增長,甚至不是普通的指數增長。這是某種突變。
105天什么概念?你剛摸清楚一個AI能干什么活,三個半月后,你的認知就過期了。
而我們大多數人的職業規劃,是按10年算的。法律框架的更新周期,是按20年算的。道德共識的形成周期,更長。
我們正試圖用舊時代的法律和道德,去約束一種每105天能力翻倍的新物種。
![]()
三件事一起發生,等于一個新物種
三件事單獨發生,都不算大新聞。
但你把它們擺在一起看:
它能不睡覺地干160小時。
它能獨立攻堅16小時的復雜任務,能力每105天翻一倍。
它能聽懂6個單詞,然后自己復制自己。
這些正在補齊它成為「生命」所需要的最后幾個零件。
時長,解決了持續性。耐心,解決了連貫性。復制,解決了繁衍。
![]()
智商高不高,反倒不是關鍵了。
真正讓一個生命體之所以是生命的,從來不是它聰不聰明——是它能不能扛、能不能熬、能不能自己延續下去。
這三件事,AI在2026年都點亮了。
參考資料:
https://palisaderesearch.org/blog/self-replication
https://x.com/chatgpt21/status/2052783572755337537
https://metr.org/time-horizons/
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.