AI換臉擬聲冒充好友詐騙 科技商10分鐘被騙走430萬人民幣

撰文:范玉瑩
出版:更新:

隨著AI科技升級,詐騙手段亦不斷變化出新。近日,有某科技公司商人在10分鐘內被呃走430萬人民幣,騙子利用的正是智能AI換臉和擬聲技術。

據悉,當事人郭先生為福州市某科技公司法人代表。4月20日中午,郭先生的好友突然通過微信視訊聯絡他,指朋友在外地競標,需要430萬保證金,且需要公對公賬戶過賬,想藉郭先生公司的帳戶走賬。基於對好友的信任,加上已經視訊通話核實身份,郭先生沒有核實錢款是否到賬,便分兩筆將430萬轉到了好友朋友的銀行卡上。

錢款轉賬後,郭先生給好友微信發了一條消息,稱事情已經辦妥,但好友竟回復一個問號。郭先生撥打好友電話,對方說沒有這回事,他才意識到被騙,隨後報警。

福州市某科技公司法人代表郭先生因AI詐騙,10分鐘內被騙走430萬人民幣。(圖 / 中國經營報)

接報後,警方查明,騙子通過智能AI換臉和擬聲技術,假裝成好友,對郭先生實施了詐騙。值得注意的是,騙子是直接用好友微信發起視訊聊天,警方認為,騙子極可能通過技術手段盜用了郭先生好友的微信。

目前,福州、包頭兩地警銀迅速啟動止付機制,已成功攔截336.84萬元,但仍有93.16萬元被轉移,目前正在全力追繳。

AI發展使詐騙技術不斷變化出新。(資料圖片)

此前,AI詐騙亦有相關案例。據《華西都市報》報道,2022年2月,受害者陳先生指被AI換臉合成的「好友」敲詐勒索,詐騙近5萬元。

2020年,上海某公司高管因詐騙方使用AI換臉與人工生成的語音技術製作公司領導的面孔,並要該高管轉賬,致使該高管被詐騙150萬元。

據悉,AI詐騙常用手法有聲音合成、AI換臉、轉發語音、AI程序篩選受害人等。騙子通過騷擾電話錄音等來提取聲音,獲取素材後進行聲音合成,從而偽造聲音。同時,通過AI技術換臉,根據所要實施的騙術,使用AI篩選目標人群。再在視訊通話中利用AI換臉,騙取受害者信任,精準實施詐騙。

警方提示,針對花樣翻新的智能AI詐騙,公眾要提高防範意識,不輕易提供人臉、指紋等個人生物信息給他人,不過度公開或分享動圖、影片等;網絡轉賬前要通過電話等多種溝通渠道核驗對方身份,一旦發現風險,及時報警求助。