近日,媒體熱議有博主在使用Kimi時(shí),系統(tǒng)向其返回了一份陌生人的完整簡(jiǎn)歷,包含姓名、電話、郵箱等真實(shí)敏感信息的事件。被泄露者此前使用Kimi潤(rùn)色簡(jiǎn)歷,與爆料網(wǎng)友使用時(shí)間僅間隔約6小時(shí)。Kimi運(yùn)營(yíng)方月之暗面公司稱系A(chǔ)I幻覺。這一泄露事件直接暴露出AI在狂飆突進(jìn)中的數(shù)據(jù)安全隱患,而且隨著使用Open Claw(俗稱"養(yǎng)龍蝦")的興起,此類安全風(fēng)險(xiǎn)會(huì)被急劇放大。
一、隱私協(xié)議的提示不能為Kimi兜底
先說下平臺(tái)為什么會(huì)留存用戶輸入的信息,因?yàn)檫@些信息可能會(huì)被用于優(yōu)化模型,也就是訓(xùn)練AI。《Kimi隱私政策》規(guī)定:“對(duì)話信息:您在使用我們的產(chǎn)品和服務(wù)過程中輸入和產(chǎn)生的文本、語音、圖片、視頻等內(nèi)容。這些信息有助于我們優(yōu)化模型,并了解您的需求和偏好,以便為您提供更精準(zhǔn)的服務(wù)和支持。”從權(quán)利義務(wù)對(duì)等的角度,Kimi的基礎(chǔ)服務(wù)是不收費(fèi)的,使用用戶輸入內(nèi)容改善大模型并不過分。但既然留存了,就要好好保管,把信息泄露給其他用戶就是Kimi的責(zé)任了。
雖然《Kimi隱私政策》也已提示用戶:請(qǐng)謹(jǐn)慎上傳個(gè)人信息,尤其是敏感個(gè)人信息。但此次泄露仍涉嫌違反多項(xiàng)法律規(guī)定,《個(gè)人信息保護(hù)法》明確規(guī)定:個(gè)人信息處理者不得公開其處理的個(gè)人信息,除非取得個(gè)人單獨(dú)同意。Kimi將用戶A的簡(jiǎn)歷直接輸出給用戶B,屬于未經(jīng)同意的公開披露。
《生成式人工智能服務(wù)管理暫行辦法》規(guī)定,AI服務(wù)商對(duì)使用者的輸入信息和使用記錄應(yīng)當(dāng)履行依法保護(hù)義務(wù),不得非法向他人提供使用者輸入信息和使用記錄。所以即使使用者主動(dòng)上傳隱私信息,AI服務(wù)商仍負(fù)有保密義務(wù),技術(shù)故障不能成為免責(zé)理由。
二、養(yǎng)龍蝦模式下海量數(shù)據(jù)投喂AI的致命風(fēng)險(xiǎn)
其實(shí)這次事故的性質(zhì)并不復(fù)雜,用戶文件串臺(tái)是因?yàn)镵imi的數(shù)據(jù)沒有隔離好,但它的嚴(yán)重性,遠(yuǎn)不止一個(gè)技術(shù)上的Bug。當(dāng)前,大模型應(yīng)用正走向具備底層操作權(quán)限的AI Agent(智能體),Open Claw即科技圈俗稱的“養(yǎng)龍蝦”非常走紅。為了讓龍蝦執(zhí)行效率更高、成為更懂業(yè)務(wù)的數(shù)字分身,大量用戶開始將海量的本地核心數(shù)據(jù)直接通過API接口喂給人工智能去學(xué)習(xí)和處理。
這種深度的喂養(yǎng)面臨著極高的法律與安全風(fēng)險(xiǎn)。養(yǎng)龍蝦本質(zhì)上不是技術(shù)問題,而是一次對(duì)數(shù)據(jù)控制權(quán)的讓渡。養(yǎng)龍蝦需要導(dǎo)入的數(shù)據(jù)往往包含了個(gè)人隱私的聊天記錄、涉及商業(yè)機(jī)密的內(nèi)部財(cái)務(wù)報(bào)表和研發(fā)文檔,甚至是國(guó)家秘密。尤其是當(dāng)養(yǎng)龍蝦進(jìn)入企業(yè)級(jí)應(yīng)用場(chǎng)景時(shí),數(shù)據(jù)規(guī)模更大、敏感度更高。一個(gè)企業(yè)可能同時(shí)處理數(shù)萬份包含員工個(gè)人信息的人力資源文檔,或者涉及核心技術(shù)秘密的研發(fā)資料。
在這樣大規(guī)模、無差別的數(shù)據(jù)上傳場(chǎng)景下,如果人工智能服務(wù)商在后臺(tái)不做嚴(yán)密的脫敏處理,直接利用這些包含了核心機(jī)密的原始語料進(jìn)行模型訓(xùn)練,一旦發(fā)生類似本次事件的技術(shù)故障,風(fēng)險(xiǎn)是毀滅性的。
三、訓(xùn)練數(shù)據(jù)政策缺乏透明度
回到Kimi,用于API接口服務(wù)的《Kimi開放平臺(tái)隱私政策》對(duì)使用用戶信息訓(xùn)練AI的規(guī)定和《Kimi隱私政策》條款上一模一樣,可以使用這些信息優(yōu)化模型,訓(xùn)練AI。這意味著企業(yè)級(jí)開發(fā)者接入大模型處理業(yè)務(wù)數(shù)據(jù)時(shí),如果發(fā)生類似事故,企業(yè)的核心底牌隨時(shí)可能在其他用戶的對(duì)話框中被意外吐出。
匿名化處理作為一種隱私保護(hù)技術(shù)手段,在理論上能夠有效降低個(gè)人信息泄露的風(fēng)險(xiǎn)。所以也有AI企業(yè)承諾用戶匿名化訓(xùn)練,比如《智譜清言隱私政策》就告知用戶,會(huì)對(duì)個(gè)人信息采取技術(shù)措施處理,使其無法重新識(shí)別特定個(gè)人且不能復(fù)原,然后進(jìn)行匿名化的研究、統(tǒng)計(jì)分析和模型優(yōu)化迭代。
但絕對(duì)的匿名化往往只是一種技術(shù)迷思。在缺乏第三方審計(jì)和認(rèn)證機(jī)制的情況下,如何定義并實(shí)現(xiàn)徹底的匿名化,權(quán)限完全掌握在服務(wù)商手中。如果系統(tǒng)設(shè)計(jì)留有數(shù)據(jù)回溯的后門,或者傳統(tǒng)的脫敏手段根本無法抵御大模型日益增強(qiáng)的碎片化關(guān)聯(lián)推理能力,泄密風(fēng)險(xiǎn)始終高懸。
四、哪些文件可以投喂AI
對(duì)于哪些文件可以上傳到AI的問題,筆者有個(gè)建議:這份文件,你不愿意出現(xiàn)在陌生人電腦里的,就不要上傳,不管這家公司叫Anthropic還是月之暗面。其實(shí)這兩家公司的技術(shù)很好,也很有節(jié)操,但人為失誤和技術(shù)漏洞是防不勝防的:
2026年3月,Anthropic公司因人為失誤導(dǎo)致Claude Code超50萬行源代碼泄露,暴露核心架構(gòu)和未發(fā)布功能,類似失誤,他們13個(gè)月內(nèi)發(fā)生了兩次。近日,Anthropic的頂級(jí)安全模型Mythos還被未授權(quán)用戶用非黑客手段輕易破解訪問權(quán)限,2026年4月,Kimi的運(yùn)營(yíng)者月之暗面也發(fā)生了本文討論的誤把用戶簡(jiǎn)歷發(fā)給第三方的事故。
如果實(shí)在要上傳的,也應(yīng)該將數(shù)據(jù)控制權(quán)掌握在自己手中。對(duì)涉及商業(yè)秘密的內(nèi)容應(yīng)當(dāng)去除,對(duì)個(gè)人信息則應(yīng)脫敏。目前有專門的數(shù)據(jù)凈化工具,可以對(duì)文檔中的姓名、身份證號(hào)、聯(lián)系方式等敏感信息進(jìn)行自動(dòng)或手動(dòng)的脫敏處理。在功能相近的情況下,優(yōu)先選擇像騰訊元寶那樣默認(rèn)不使用用戶信息進(jìn)行模型訓(xùn)練的AI工具。
最后,養(yǎng)龍蝦確實(shí)能提高工作效率,但安全養(yǎng)龍蝦的前提從來不是多喂,而是你的龍蝦缸,是否真的防漏。
本文作者:游云庭,知識(shí)產(chǎn)權(quán)律師。Email: yytbest@gmail.com,本文僅代表作者觀點(diǎn)。
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.