AI換臉詐騙再現!防止盜號是關鍵 這些方法可識破AI換臉

2023-05-26     新京報貝殼財經

原標題:AI換臉詐騙再現!防止盜號是關鍵 這些方法可識破AI換臉

財經原創出品

記者羅亦丹

編輯 岳彩周

AI火了,騙子也來了!

近日,兩起利用AI換臉實施詐騙的案例引發關注。繼包頭警方發布「福州市某科技公司法人代表郭先生10分鐘內被人用AI換臉詐騙430萬元」後,5月25日,安徽警方也通過當地媒體披露了一起類似案件,詐騙分子使用了一段9秒鐘的智能AI換臉視頻,佯裝「熟人」,導致安慶經開區的何先生被詐騙245萬。

短時間內曝光的兩起AI換臉詐騙案,對今年以來持續火爆的AI技術發展無疑是一種警醒:未來令人「防不勝防」的AI換臉詐騙會否大規模爆發?又應如何防範這類詐騙?

5月25日,新京報 財經記者採訪反詐民警以及行業專家發現,目前使用AI換臉詐騙的案例並不多,同時在上述兩起詐騙案中受害者均是先入為主認為發來視頻的是朋友的社交帳號才有了後續「AI換臉」的登場,因此源頭上應先防止自己帳號被盜用、警惕他人社交帳號真偽。此外,AI技術的發展也確實降低了AI換臉的門檻,客觀上降低了AI換臉詐騙的成本。

01

兩起AI換臉詐騙有何共同點?

針對性詐騙,帳號被盜是問題關鍵

新京報 財經記者注意到,近期曝光的兩起AI詐騙案例均屬於針對性較強的「特定性詐騙」。在郭先生的案例中,「好友」通過微信視頻聯繫他,表示自己的朋友在外地競標,需要430萬保證金,且需要公對公帳戶過帳,想要借郭先生公司的帳戶走帳。郭先生轉帳後撥打好友電話,才知道被騙。而在何先生的案例中,其微信「好友」突然向其發起視頻通話,電話接通後,何先生看到「好友」正在一間會議室內,並藉故會議有事,通過QQ要求周轉資金,導致何先生被騙。

可以發現,在上述詐騙案例中,詐騙分子對受害者和其好友的身份、日常話術均有深刻了解,才能完成詐騙。此外,在偽造好友身份這一環,通過AI偽造視頻只是增加可信性,但消息確實是從「好友」的微信號發來,才造成了受害者深信不疑。

電信專家付亮表示,在何先生的案例中,首先出現微信直接聯繫,然後轉QQ號碼直連,轉帳也未通過微信或QQ(繞開了騰訊的安全判定),「假冒QQ好友的詐騙手法快30年了,都沒有用到AI,網際網路快速發展,更多防護意識較弱的人成為網民,快捷的電子轉帳也為騙子提供了便利。兩起案例中都是盜用帳號詐騙,AI換臉只是輔助。」

民間網際網路安全組織網絡尖刀創始人曲子龍告訴新京報 財經記者,此類AI換臉的詐騙手段都是定向針對性詐騙,而非傳統意義上「廣撒網,打打電話」的電信詐騙,往往乾的也都是「大單」。源頭上需要防止帳號被盜用,不要輕易加陌生人,「也要防止其他人用小號加你,過一段時間改成你親友,然後再實施詐騙。」

02

AI換臉詐騙不會大規模出現

5月25日,某沿海城市反詐專班民警對新京報 財經記者表示,目前並未發現當地有使用AI冒充熟人作案的案例,主要是這種詐騙方式手段特殊,需要特定人群、還需要人臉數據等,要素比較多,因此不會大規模出現。

實際上,AI換臉技術早在2017年就已在網上流行,不論是使用女明星的臉替換成人影星的色情影片,還是為了娛樂使用自己的臉替換電影形象曾流行一時的App「ZAO」,使用的都是同一類技術。

有專家提示稱,「AI假臉」的紋理特徵存在破綻。例如,偽造後的視頻人物的眼睛或牙齒輪廓細節容易不一致;兩隻眼睛瞳孔的顏色不一樣或瞳孔中心反射的細節不一樣;很多偽造視頻由於視頻解析度低於原始視頻,偽造出來的視頻牙齒邊緣過於整齊等。

新京報 財經記者注意到,為了防止「穿幫」,一般詐騙分子不會長時間播放AI換臉的視頻,如在何先生的案例中,詐騙分子只視頻通話了9秒,就匆匆轉到了文字聊天。

不過,一個現實問題是,隨著AI技術的進步,AI換臉的門檻確實也越來越低。「以前AI換臉還需要一兩百張圖片,現在不同角度的照片,一般5到8張就可以生成很不錯的模型了。」曲子龍說。

曲子龍坦言,「AI發展太快,想要防止臉被盜用太難了,尤其是一些公眾人物、明星、網紅,他們的照片很好獲取。像微博、抖音、朋友圈,或者乾脆去偷拍你幾張高清照片,都能通過AI建模實現換臉。」

付亮對新京報 財經記者表示,對於此類詐騙手法,主要要防範騙子通過微信或 QQ 假冒熟人(親戚、朋友、客戶)詐騙。一方面,有資金往來,應先電話確認;此外,把錢打到陌生帳戶,要反覆確認;最後,一定切記,對面和你聊天的不一定是本人,可能是假冒的,甚至可能是機器人,不要輕易相信。

往期精彩

文章來源: https://twgreatdaily.com/zh-my/915d54fe0707d1d79b8753043426d227.html