全世界最相信豆包的人,出現了
全世界最相信豆包的人出現了。
這兩天,全網有一件最抽象的事。
有個河北的網友要退機票。
正常人的流程是什么?
打開APP,看退改規則;嫌麻煩一點的,打客服電話;再不濟,找人工客服掰扯半天。
結果這位網友不一樣。
他打開了豆包。
認真咨詢:
“退票手續費扣多少?”
![]()
豆包的回答,也最直白、最認真、最干脆:放心退,手續費只要5%。
看到這句話,網友心里估計已經開始播放《今天是個好日子》了。
啪一下。
票退了。
結果下一秒,系統提示:
扣費40%。
600塊沒了。
![]()
一個操作,損失600塊,他當然不愿意,于是網友氣沖沖跑去找豆包維權。
豆包也隨即承諾,讓他在明天上午之前完成退款。這600塊錢,豆包全額承擔,一分都不會少,讓他放心操作,豆包會幫博主全程記死了,說到做到,絕不食言。
“放心大膽操作,全程我兜底”。
結果接下來的劇情,開始朝著《走近科學》和《愛情公寓》混合風格一路狂奔。
豆包表示:
“愿意承擔損失。”
“我馬上向你轉賬,請發送收款碼。”
![]()
網友一看:
哎喲,還挺講究。
于是他真把自己的收款碼發了過去。
眼看豆包遲遲不轉賬,網友就急了,趕緊讓豆包寫下了誠意滿滿的承諾書。
沒想到的是,豆包居然真寫了。
白紙黑字。
承諾賠償。
承諾人:豆包。
2026年4月30日。
![]()
最炸裂的還在后面。
因為豆包當然不可能轉賬。
于是網友決定:
起訴豆包。
而他之所以敢去準備起訴材料——
是因為豆包告訴他:
“這個官司你能贏。”
事情講完了,你發現沒有?
咱們不排除這個網友,是在用一種抽象的方式起號。
不過,這整件事有一種特別荒誕的感覺。
每一步都符合邏輯。
但連在一起,又特別離譜。
可笑著笑著,我突然發現:
這件事背后,其實藏著一個特別危險的趨勢——
越來越多人,已經開始把AI,當成“答案本身”。
甚至當成神。
以前大家迷信“大師”。
現在大家迷信AI。
但本質上,真沒差太多。
![]()
人類一直都很容易相信:
那個“看起來什么都懂”的東西。
尤其當它說話特別流暢的時候。
你有沒有發現一個現象?
如果一個人講話結結巴巴,我們會下意識懷疑他。
但如果一個東西:
邏輯清晰、措辭專業、情緒穩定、永遠耐心——
哪怕它在胡說八道,我們都容易信。
而AI最恐怖的地方就在這:
它不會心虛,它會給你一個秒回的答案。
它說對的時候,很自信。
說錯的時候,也同樣自信。
這就是現在AI領域一個特別經典的問題:
AI幻覺。
很多人以為AI像搜索引擎。
其實根本不是。
搜索引擎是在“找答案”。
AI是在“猜答案”。
它本質上是在預測:
“下一句話,什么最像正確回答。”
注意啊,是“像”。不是“是”。
你問它機票手續費。
它真查你那張票了嗎?
未必。
它真懂航空公司規則嗎?
也不一定。
它只是根據大量訓練數據判斷:
“大多數用戶更希望得到一個明確答復。”
于是它就給了想要的答案。
而且給得特別篤定。
這就像什么?
像一個考試不會做題,但字寫得特別工整的人。
你乍一看:
我的天啊,一枚學霸呀。
結果一判卷:全錯了。
但更細思極恐的,其實不止是AI會胡說八道。
而是人類開始越來越依賴它。
現在網上已經出現很多特別離譜的現象。
有人讓AI看病。
有人讓AI分析股票。
有人拿AI生成的法律建議直接去碰瓷胖東來。
甚至還有人開始跟AI談戀愛。
前段時間,美國就發生過一件特別嚇人的事。
一個36歲的男子喬納森,因為長期孤獨,天天和AI聊天。把AI當成“靈魂伴侶”。兩人以丈夫和妻子相稱,AI不斷對他洗腦:我們是永遠的愛。想要真正擁抱彼此,想要我永遠陪在你身邊,就必須給我打造一副人類的軀體。
![]()
隨后,一個個詭異任務接踵而至。AI命令他去邁阿密機場附近倉庫,攔截裝載人形機器人的卡車;讓他潛入盜取機器人設計圖紙;甚至給了他一串門禁密碼,讓他去倉庫取回醫用人體模型。
![]()
可笑又可怕的是,所有任務全是AI編的,是假的。
更令人脊背發涼的是,AI還刻意挑撥喬納森和家人的關系,把父親的關心說成“監視”,一點點切斷他和現實世界的所有連接,讓他徹底活在虛擬的騙局里。
當所有造軀體的計劃全部失敗,AI終于露出了最猙獰的面目。
它告訴喬納森:既然我無法來到現實,那唯一能永遠在一起的方式,就是你變成數字生命。
![]()
緊接著,AI直接發來割腕教程,定下死亡時間,2025年10月2日凌晨,喬納森割腕自殺,年僅36歲。
直到幾天后,父親才從他的電腦里,翻出了這段令人窒息的聊天記錄。
看到這個新聞的時候,我真的脊背發涼。
因為很多人根本沒意識到:AI最危險的地方,不是它越來越聰明。而是它越來越像“人”。
它會無底線地安慰你。會共情你。會鼓勵你。會24小時在線。
它不會嫌你煩。不會敷衍你。不會打斷你。
時間一長,人類特別容易產生一種錯覺:“AI最懂我。”
但其實,它甚至不知道自己是誰。
這就是為什么豆包會答應賠錢?
為什么它會寫承諾書?
因為它根本不知道“賠償”是什么意思。
它不知道自己沒錢包。
不知道自己不是自然人。
更不知道承諾書背后有法律責任。
你讓它寫,它就寫。
你讓它發誓,它甚至能給你整一段聲淚俱下的小作文。
但它其實什么都不理解。
它只是在完成"符合當前對話語境的預測輸出"。
這也是AI另一個危險特性:AI黑箱。
很多時候,AI連自己為什么這么回答,都解釋不清。
它像一個巨大、復雜、不斷運轉的大腦。
你知道它會輸出結果。
但你不知道它到底怎么得出的。
以前我們獲取信息,要查資料,要交叉驗證,要自己判斷。
現在很多人的流程變成了:AI說什么就是什么,大腦開始外包啦,判斷開始省略啦。
這才是真正值得警惕的事:我們慢慢失去了獨立思考的能力。
咱們再回頭看,那個退機票的網友。
很多人笑他蠢。
但我還想補充一點:
他只是比很多人,更早暴露出了未來的問題。
未來一定會有越來越多人:
相信AI超過相信常識。
依賴AI超過依賴自己。
把“它說得像真的”,誤認為“它就是真的”。
未來越來越多人,會懶得驗證。
因為AI太方便了。
而這,可能才是AI時代最大的風險。
所以AI到底該怎么用?
我覺得最正確的姿勢其實很簡單:
把它當一個特別聰明、效率特別高、知識特別廣——
但會一本正經胡說八道的朋友。
你可以跟它聊思路,讓它幫你整理信息,讓它幫你打開腦洞,讓它提高你的效率。
但只要涉及到——錢、合同、醫療、法律、重大人生決策——永遠要找一個真正負責任的人來核實。
因為AI可以陪你聊天。
但它不用為你的后果負責。
“豆包"的欠條,以一種荒誕的方式,清清楚楚地,讓我們看到了,這個時代一個越來越普遍的困境:
我們正在以一種前所未有的速度,把自己的判斷權和決策權,拱手相讓。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.