最近,小編在刷社交平臺的時候,看到有網友表示,荊州最近發生了新型的大騙局,還有網友煞有其事的講了自己的親身經歷。
不過,小編查了一下官方的新聞報道,發現這個所謂的新型騙局也可能就是一個謠言。
荊州發生新型大騙局 AI克隆你?
在視頻中,一位主播表示:最近的新聞大家看到了,荊州最近發生了一個新型大騙局,以前只在北上廣深大城市,現在已經蔓延到我們荊州了,真人真事。
![]()
看到這里,你是不是被這個內容所吸引,主播后來講述了這個所謂的新型大騙局。
大致內容就是說,有陌生人要你幫忙去念手機上的字,如果你幫忙了,就陷入了新型AI高科技騙局,只要你幫忙念出了這十幾個字,對方就能悄悄的獲取你的人臉信息,就會克隆你。
首先,小編查了下,荊州并未發生這種新型騙局的新聞報道,只有社交平臺的一些主播自稱的所謂真實經歷。
![]()
比如一位荊州網友發視頻表示,自己在店子里面,有個姨媽找她念手機上的數字,然后她發現手機正在錄視頻,然后這位網友還科普說:這是在采集你的聲音和人臉識別信息,可以生成AI提升前去網貸,不到半小時你就可能背上貸款。
不過小編對這個故事的真實性是存疑的,因為在去年12月份,短時間內,荊州有多位網友都講訴了類似的所謂親身親歷的故事。
此類AI詐騙 發生概率小
首先,關于第一位主播說北上廣深發生過,上海、成都、南京的地民警在接受采訪時曾表示沒有接到過此類的報案。
另外還解釋到:僅有聲音和面部信息,沒有身份信息、手機號、驗證碼及銀行卡號等信息,網貸平臺難以審批下款,當事人在極短時間內“被網貸”的可能性并不大。
![]()
這里想一下,如果說讀手機上的幾個字就可以訓練AI替身,那么,主播發布的視頻也是有圖像有聲音,直接下載主播的視頻進行AI訓練,是不是比找主播讀數字或者文字來的更加方便。
其實現在社交平臺公開渠道的視頻和聲音那么多,沒必要做一些冒險的舉動。
小編覺得,提醒大家注意個人隱私,謹慎使用人臉識別,不幫陌生人讀任何數字,這一點,小編覺得沒有問題而且有必要,泄露的個人信息容易被不法分子二次利用,總歸是有安全風險隱患的。
但是如果編造說自己親身經歷或者說荊州已經發生新型大騙局,就有點為了流量制造焦慮了。
常見AI騙局大盤點
雖然所謂的AI替身網貸的騙局發生的可能性較低,但大家仍需要警惕,小編也結合官方資料為大家梳理了幾類常見的AI詐騙。
AI模仿聲音詐騙:詐騙分子主要是利用互聯網公開渠道獲取目標人物的照片、視頻和音頻素材,通過視頻生成類AI工具,偽造出與目標人物極為相似的面容和聲音,以各種理由誘導受害者轉賬或提供個人信息。
AI生成不雅內容詐騙:利用AI換臉技術,偽造帶有受害人面容的不雅視頻、圖片和音頻等,進行勒索敲詐。
AI生成虛假人物網戀詐騙:利用AI生成或憑借的美女帥哥視頻,最后就是找被害人借錢等。
另外還有AI換臉直播,特別是一些名人的,這個大家一搜新聞一大堆。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.