近日,一個名為“同事.skill”的 AI 項目在技術圈和職場社交平臺上引發廣泛討論。
![]()
某平臺上,相關話題沖上熱搜。
項目開發者稱,通過抓取離職員工生前的聊天記錄、代碼提交記錄以及往來工作文檔,可以訓練出一個極度還原其說話風格、思考邏輯甚至編程習慣的“數字分身”,在企業工作群中,這個“分身”能像往常一樣回復“收到”,還能繼續承接復雜的代碼編寫任務。
在社交媒體上,網友戲謔地稱之為“離職同事被煉化”。
![]()
圖源:某社交媒體
“煉化”本是修仙小說中的詞匯,指代將某種物質萃取、重塑并賦予新能的過程。現在,這個詞更接近一種技術隱喻:將個人的數字化足跡通過大模型微調技術進行“萃取”,最終生成一個高度仿真的虛擬工作人格。
從技術邏輯看,“同事.skill”這類應用展示了生成式 AI 驚人的遷移學習能力。它證明了只要數據密度足夠,個體的職業技能和溝通模式是可以被“算法化”的。
然而,當技術理性試圖將鮮活的個體“壓縮”為可復用的算法包,也不免令人隱憂:看似高效的技術狂歡背后,到底是通過技術創造價值,還是在漠視人的價值?這種對人格的“數字化提取”,究竟是賦能,還是一種更為隱蔽的剝削?未來,我們到底要如何區分人和機器的邊界?
“煉化”風險:數據主權與責任歸屬
先來看具體的風險。當“數字分身”開始進入工作流,首當其沖的爭議問題,就在于數據的主權歸屬。
“同事.skill”項目的爭議核心,實際上是“職業人格”在法理上的界定模糊。比如企業是否有權將員工在職期間產生的聊天記錄、代碼風格、思維導圖等數據用于訓練 AI?按照傳統的勞動合同法,員工在工作時間產出的知識成果歸企業所有,但“人格特征”和“溝通風格”是否也屬于可被剝奪的資產?當員工離職后,他是否擁有對其“數字足跡”的撤回權?面對這些問題,我們未來有必要進一步在法律上明確。
![]()
圖庫版權圖片,轉載使用可能引發版權糾紛
另一重風險來自責任主體的缺失。如果一個由離職員工數據訓練出的“數字分身”在工作中犯了錯,比如寫出了帶有嚴重漏洞的代碼,或者在群聊中發布了違法言論,責任該由誰承擔?是提供原始數據的離職員工,是開發該項目的程序員,還是部署該 AI 的企業主?
目前的法律框架中,AI 尚不具備獨立法人資格。如果責任無法穿透“數字外殼”落實到具體的自然人或法律實體,那么技術創新也將變成脫韁的野馬。這就要求我們必須建立一套責任機制,明確企業作為數字分身使用方的終極法律責任,確保在算法之外,有人為結果買單。
就在“同事.skill”被熱烈討論時,國家網信辦 4 月 3 日發布了《數字虛擬人信息服務管理辦法(征求意見稿)》。該意見稿明確要求,提供數字虛擬人服務應當保護自然人的肖像權、名譽權及隱私權。
其中值得注意的是,它強調了“知情同意”原則:使用他人生物識別信息或特定特征生成的虛擬人,必須獲得當事人的明確授權。這一文件,其實也為“同事.skill”這類應用指明了合規路徑:不是不可以,但必須在光照之下、授權之中進行。
“數字分身”AB 面:生命慰藉或職場異化
如果我們跳出當下,把視線拉得更長一些,會發現:“同事被煉化”的背后,本質是 AI 革命所帶來的影響已不再局限于簡單的“技能替代”,而是對人機關系的一次新探索。
站在技術普惠的角度看,這種數字人格建模技術也可以展現出技術向善的溫度。
比如通過構建數字分身,它可以為失親家庭提供情感補償,在數字化空間中實現跨時空的心理慰藉;在醫學康復領域,它能為阿爾茨海默病患者提供認知輔助,在肉體機能衰退前為其構建數字記憶庫;在教育公平領域,該技術可轉化為具備高度適應性的“個性化教學助理”,為不同背景的學生提供定制化的知識傳遞……在這些場景下,AI 是人類認知邊界的延伸,更是應對生命局限性的巨大慰藉。
![]()
圖庫版權圖片,轉載使用可能引發版權糾紛
然而,當相同的技術邏輯切入職場垂直場景,技術異化的風險隨之凸顯。
除了前面提到的法律解釋層面的挑戰之外,更深層的問題在于,如果個體的直覺與多年積累的專業性被封裝為可復用的插件,人類作為勞動主體的尊嚴與不可替代性將面臨系統性消解。人不應僅僅成為被挖掘的數據礦藏,更不應在算法的鏡像中失去作為“創造者”的主體地位。
我們必須明確,AI 應作為人類能力的增強器,而不是人的能力的低成本替代。也正因此,當前科技治理的核心在于盡快確立人機協作的權責邊界,以更好地用好這把“雙刃劍”。
可以預期的是,隨著AI應用和產品創新的不斷加速,未來我們還會遇到更多類似“同事.skill”這樣的數字分身及其帶來的技術、倫理與制度的復雜挑戰。
這需要業界、學界以及監管部門共同參與探索發展的新可能空間,就像當年簽署聯名信試圖叫停 AI 研發的一眾科學家最終也無法阻擋大模型向前的浪潮一樣,“數字分身”因其高效率的特點,恐怕也會快速普及開來。
也正因此,今天我們面臨的真正挑戰不再是如何拒絕它,而是如何建立一套全新的機制設計,在效率的奇點與人文的邊界之間,在法律規范與倫理共識的光照下,探索出一套透明的授權機制與問責體系,用更明確的規則來探索新的平衡。而這一切的前提應該是:確保技術的應用不以犧牲人的基本權利為代價。
策劃制作
作者丨陳白 資深媒體人
審核丨于乃功 北京工業大學教授 中國人工智能學會理事
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.