!!其實就是編不下去了。
!!卡情節(jié)了,倒不是我瞎編不出來,而是量子力學(xué)太反直覺。在嘗試將量子力學(xué)的方法應(yīng)用到宏觀世界的過程中,巨大的計算工作讓人絕望。
所以扯點別的,扯點關(guān)于大模型的。扯點最近使用AI大模型的感受和個人觀點。
當(dāng)前的LLM AI 大模型的應(yīng)用場景是語言類服務(wù)。最初我認(rèn)為大模型最大的應(yīng)用場景是“溝通無障礙”。不管是哪國人,說著哪種語言的陌生人,都可以在大模型的幫助下無障礙的溝通。
但現(xiàn)實并非如此,我低估了語言的力量和文化的隔閡。就算不提大模型越來越嚴(yán)重的幻覺導(dǎo)致的詞不達(dá)意,錯漏百出,不同語種間的人依然困在母語的牢籠之內(nèi)。
為什么會這樣的?是因為社交媒體接入的大模型沒有提供翻譯服務(wù)嗎?是因為大模型的翻譯功能依然差強人意嗎?
似乎并非如此,社交媒體的翻譯功能早在大模型出現(xiàn)之前就已經(jīng)接入。使用大模型的翻譯質(zhì)量已經(jīng)非常接近人工翻譯的水平。雖然大部分時候離“信雅達(dá)”還有些距離,但比非專業(yè)人員還是強了那么一丟丟的。我有玩過一個游戲,這個游戲里的聊天室就內(nèi)嵌了實時翻譯功能,不管聊天室里的人用哪國語言。在你的終端都是以簡體中文顯示。雖然大部分的俚語翻譯結(jié)果都很奇怪,但并不妨礙聊天室里的人談天說地。從技術(shù)上來說,語言早就不應(yīng)該成為認(rèn)知世界的障礙了。
既然語言已經(jīng)不是問題,為什么我們還是被困在母語的牢籠之內(nèi)?
第一個原因是渠道。在茫茫人海中,一個人要結(jié)識另一個人,需要機緣和平臺。以前人們天真的認(rèn)為互聯(lián)網(wǎng)會給我們提供這個平臺,結(jié)果平臺推薦算法只給你喂與你使用同種語言的內(nèi)容。甚至于只給你喂與你發(fā)表的觀點類似的po。最終的結(jié)果就是在互聯(lián)網(wǎng)這大網(wǎng)下,認(rèn)知空間反而越來越小了。
第二個是認(rèn)同,這也是最主要的原因,也是推薦算法慢慢將一個人的認(rèn)知越箍越緊的根本原因。相同的語言和文化環(huán)境往往產(chǎn)生最愿意接收的信息,源于與自身的息息相關(guān),源于多巴胺,源于孤獨的空虛。在互聯(lián)網(wǎng)的完播率,點擊率這種績效刺激下,催生出的推薦算法讓人迷失在“原來世界都是草臺班子,全世界都不過如此”的解脫或是是而非的自我滿足中。最終將每個獨立的各體禁錮在看似了然一切的繭中。最終丟失主動性,只接收那些喜歡看的,甚至是別人讓你看到的內(nèi)容。這也是騙子們最容易得手的切入點,先用共同話題獲取認(rèn)同和信任;然后通過偷換概念或不斷的暗示騙取財物。
最終,AI和互聯(lián)網(wǎng)并沒有讓我們的眼界更廣闊,思維更有深度;恰恰相反,束縛認(rèn)知的繭更密了,認(rèn)知的空間更狹小了。生長在互聯(lián)網(wǎng)時代的90后,00后,10后們,對于世界,對于過去,對于超過周身半寸之外的世界真的比60,70后了解的更多,更真實嗎?不見得吧?如果事實如此,他們視角中的方寸又是什么樣的呢?當(dāng)他們不得不走出方寸的時候又能否夠抗住那如山海般的失落呢?純屬發(fā)散,與我無關(guān)。
還是來聊AI吧。
現(xiàn)在的LLM依賴的神經(jīng)網(wǎng)絡(luò),根本上就是一堆用訓(xùn)練進行擬合的量子點。在訓(xùn)練發(fā)生之前,我們甚至不確切的清楚某個神經(jīng)元被賦予了隨機數(shù)池的哪一個值。經(jīng)過訓(xùn)練之后,每個神經(jīng)網(wǎng)絡(luò)中的神經(jīng)元與訓(xùn)練內(nèi)容中的各個信息元產(chǎn)生強耦合。當(dāng)我們向LLM發(fā)起交互時,這個巨大的網(wǎng)絡(luò)將那些在概率上,與我們的輸入最契合的信息元組合起來,最終組織成給我們的回復(fù)。
從簡化的視角來看,LLM和量子力學(xué)當(dāng)前的理論很相似。一個未經(jīng)訓(xùn)練的LLM就是一團量子云,每個量子的狀態(tài)是未知的。訓(xùn)練就是用觀察者信息讓量子云中的量子坍縮,當(dāng)觀察者的輸入信息足夠多,量子云完全坍縮之后,就不在呈現(xiàn)整體的量子狀態(tài)而表現(xiàn)出宏觀視角下的確定結(jié)果。下降梯度,激勵機制自然就是加速這一過程的催化劑。
那么問題來了,正如量子并非總是表現(xiàn)出人們期望的,或者計算的結(jié)果相符的特性。(量子世界的觀察結(jié)果往往以概率的不確定性出現(xiàn)。甚至于為了發(fā)現(xiàn)隱藏在概率之下的微弱變化,衍生出了弱觀察這種在誤差的邊緣尋找現(xiàn)象的理論。)LLM的輸出也會出現(xiàn)游離在正態(tài)分布之外的錯誤,誤導(dǎo),甚至瞎編的結(jié)果。當(dāng)然LLM訓(xùn)練樣本和資料庫(互聯(lián)網(wǎng))中的錯誤,虛假信息越多,AI幻覺出現(xiàn)的概率也就越高。
一個真實的例子來自于人體免疫系統(tǒng)是否可以消滅癌細(xì)胞?
AI給出的回答是:
簡單來說:是的,人體的免疫系統(tǒng)每天都在識別并嘗試消滅癌細(xì)胞。
這種機制被稱為“免疫監(jiān)視” (Immune Surveillance)。在健康人體內(nèi),細(xì)胞分裂時偶爾會產(chǎn)生變異,其中一些變異可能導(dǎo)致細(xì)胞癌變,但免疫系統(tǒng)通常能在這些細(xì)胞形成臨床可見的腫瘤之前,就將其精準(zhǔn)清除。
事實如此嗎?
我們繼續(xù)問:為什么癌癥的自愈率這么低呢?
AI會回答:
雖然免疫系統(tǒng)很強大,但癌細(xì)胞具有極強的“進化”和“偽裝”能力,這就是為什么癌癥仍會發(fā)生的原因:
- 釋放干擾素: 癌細(xì)胞會釋放一些化學(xué)物質(zhì),讓周圍的免疫細(xì)胞“昏昏欲睡”或失去攻擊力。
- 物理屏蔽: 腫瘤可以產(chǎn)生厚厚的結(jié)締組織(基質(zhì)),像圍墻一樣把免疫細(xì)胞擋在外面。
- 假情報(免疫檢查點): 癌細(xì)胞會在表面表達(dá) PD-L1 蛋白,這相當(dāng)于給T細(xì)胞展示一張“免死金牌”。當(dāng)T細(xì)胞接觸到這個信號時,攻擊行為會被強制鎖定(就像剎車一樣)。
你看,癌癥之所以難以治愈就是因為癌細(xì)胞具備這些抵抗或者騙過免疫系統(tǒng)的手段。AI給出的答案就是免疫系統(tǒng)能對抗癌細(xì)胞,但是它做不到或者無法識別癌細(xì)胞。這不是明顯的前后矛盾嗎?臣妾想但是臣妾做不到?
癌細(xì)胞能夠抵抗或者騙過免疫系統(tǒng)不正是癌細(xì)胞的特征嗎?如果你賣弄了AI的第一個回答,那么大概率你不適合當(dāng)醫(yī)生。
當(dāng)前除了放療,化療之外治療癌癥的方法,也是最新的醫(yī)學(xué)嘗試是怎么做的呢?
靶向治療,破壞癌細(xì)胞無限增生的生長環(huán)境。如:EGFR 抑制劑。
免疫療法,破除癌細(xì)胞的偽裝。如:免疫檢查點抑制劑 (PD-1/PD-L1)。
如果上面講的是AI不可靠,那么下面就是AI的局限。
1 記憶丟失或稱之為“災(zāi)難性遺忘”。
我不止一次的發(fā)現(xiàn),AI無法記住你交代它要記住的任何事。不管你和AI之前談過什么,給它說明過多少遍基礎(chǔ)設(shè)定。它都會在后續(xù)的對話中忘記這些設(shè)定。我嘗試過在同一個對話中預(yù)埋一個設(shè)定,然后在這個對話的某個階段LLM會出現(xiàn)違反設(shè)定的內(nèi)容。
2 固有信息依賴,不管是對的還是錯的信息依賴。
之前的內(nèi)容對于折躍技術(shù)進行過簡單的討論,結(jié)論是以當(dāng)前的科技和理論水平,人類完全無法實現(xiàn)空間折躍。但是當(dāng)以此為基礎(chǔ)與LLM進行探討時,它總是不自覺的出現(xiàn)折躍這種星際航行方法。我一再進行糾正后,問LLM為什么它會一再的出現(xiàn)這種討論議題之外的技術(shù)?LLM的回答是:它檢索和訓(xùn)練內(nèi)容中關(guān)于星際航行的部分,絕大多數(shù)都使用的是曲率和折躍技術(shù)。事實是這是一個先有幻想然后才由理論物理學(xué)家得出數(shù)學(xué)可能,而在當(dāng)前工程水平下完全無法實現(xiàn)的技術(shù)。
3 固定的模式。
如果你看多了LLM創(chuàng)作的文字,你回發(fā)現(xiàn)都是一個味。以至于我現(xiàn)在只要看一眼文案就知道是不是AI創(chuàng)作的。
4 無法創(chuàng)新,或者說無法計算新的變量。
虛構(gòu)的文學(xué)作品總是會在需要的時候,引入新的人物,或者情節(jié)的轉(zhuǎn)折。但如果你讓AI一直持續(xù)的書寫一個議題,它無法創(chuàng)造出一個新的任務(wù)或者一個轉(zhuǎn)折。AI創(chuàng)作的文字不是像流水賬,而是就是流水賬。看似細(xì)膩,實則如八股一般。
5 無法書寫連續(xù)長文。
有人會說這是因為你用的AI不夠好。實際上越好的AI越會限制長文理解。為什么?因為成本,越多的要素意味著越多的上下文關(guān)聯(lián),也就意味著越多的token請求。體積越大的LLM,對于長上下文的關(guān)聯(lián)檢索越多,意味著越多的計算量,越多的電力消耗。據(jù)說有公司的程序員在兩分鐘內(nèi)花費了47美元用于讓AI生成代碼片段。
基于以上這些,當(dāng)前的AI大模型缺乏能體現(xiàn)價值的應(yīng)用場景。所以運營語言大模型的企業(yè)在高投入后,如何找到盈利模式還是一個大問題。這也是資本市場盛行AI經(jīng)濟泡沫擔(dān)憂的根本原因。
當(dāng)然,LLM不過是AI技術(shù)發(fā)展的一個階段。在專業(yè)領(lǐng)域,如:醫(yī)藥,輔助設(shè)計等領(lǐng)域,專用AI依然擁有廣闊的市場和光明的前景。
關(guān)于AI未來的發(fā)展方向。
有將灌輸督導(dǎo)訓(xùn)練轉(zhuǎn)向經(jīng)驗訓(xùn)練的理論。讓AI通過試錯積累經(jīng)驗的路徑發(fā)展出智能。
有AGI,構(gòu)建邏輯世界模型, AI 不再僅僅學(xué)習(xí)語言,而是通過視頻、物理引擎學(xué)習(xí)現(xiàn)實世界的物理規(guī)律(例如:重力、碰撞、因果關(guān)系)。
總之,當(dāng)前的LLM并不是一個可以完全信任和依賴的工具,還不具備改變世界的能力。但將來擁有無限的可能,AI也如此。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.