4月的一個工作日,美國佛羅里達州居民埃里卡·安德森正在家中上班,手機屏幕彈出一條視頻通話請求,顯示的號碼是她17歲女兒的手機。接通后,屏幕里的“女兒”穿著平日的校服,聲音完全一樣,說:“媽媽,開門,我不舒服。” 安德森感覺不對勁,隨即向對方提問:“昨晚你們吃了什么?”屏幕里的“女兒”答:“天吶!媽媽,我不知道。”安德森掛斷電話,調出門口監控攝像,發現門前空無一人。于是,她打電話給學校,工作人員回答說,女兒正在考場里答題,手機被鎖進了儲物柜。 不是她女兒打來的電話。那么,打電話的是誰?
5月的調查顯示,這通電話是AI偽造的。一名青少年嘗試惡作劇,使用了一款AI軟件,該軟件可以為通話實時生成假畫面和假音頻,人臉和聲音都可以被替換成任意指定的人物。
![]()
▲創意配圖 據視覺中國
據報道,當事人安德森事后表示:“我聽說過AI電話騙局,但從沒想到會有視頻通話。這其實讓人害怕,直到這件事發生,我才意識到需要擔心的事情多了很多。”
涉事青少年的家長已向安德森道歉,安德森未提起訴訟。但她在事后采取了一系列防范措施,例如與女兒約定只有家人知道的密碼詞、更換門禁報警系統、調整現有攝像頭角度,并新增了兩臺安全攝像頭。
報道稱,當地的杰克遜維爾警察局經濟犯罪部門已將AI偽造電話列為重點偵查方向,指派專職偵探負責調查該案。該部門指出,此類案件正在激增。
網絡安全公司邁克菲的研究顯示,AI語音克隆系統只需約3秒的音頻樣本,即可生成相似度達85%的聲音復制品。目標人物發布在社交媒體上的短視頻,足以成為AI復制素材。
據美國聯邦調查局(FBI)2025年互聯網犯罪報告,2025年全年共記錄超過2.2萬起與AI相關的欺詐投訴,損失總額超過8.93億美元。安全研究人員估計,此類案件的實際報案率不足5%,真實損失規模可能遠高于官方統計。
如何應對?FBI建議,手機用戶接到可疑視頻通話時應立即掛斷,用已知號碼重新撥打以核實對方身份;觀看視頻時,可留意手部變形、面部邊緣不自然等破綻。安全專家普遍建議,家庭成員之間應提前約定一個密碼詞,在緊急電話中用于核驗對方是否真實。這一方法被視作目前對抗AI偽造視頻通話的最低成本防線。
近日,安德森將事件經過發布到了個人社媒賬戶。據她介紹,視頻獲得近2000萬次播放,數千名用戶在評論區表示自己或家人曾遭遇過類似的AI視頻通話騙局。
紅星新聞記者 鄧紓怡
編輯 鄧旆光 審核 官莉
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.