騙徒AI換臉換聲詐騙 方保僑籲別接聽不明視像來電 教路5招自保

撰文:陳淑霞
出版:更新:

警務處近日提醒,提防騙徒以人工智能(AI)換臉換聲進行詐騙。香港資訊科技商會榮譽會長方保僑今(4日)於港台《千禧年代》表示,深偽技術(Deepfake)突飛猛進,網上亦有不少程式可供換臉,近日亦流行生成AI歌手翻唱歌曲。
他提到,若市民接獲「親友」視像來電,若有懷疑,可要求對方「擰吓個頭、say 個hi(打聲招呼)」,或留意其動作是否自然,最佳做法是致電親友本人查證。有網民指近期湧現不明視像來電,方保僑提醒,有機會是騙徒從中錄影接聽者的樣貌及聲音,呼籲市民提防。

方保僑表示,網上不乏應用深偽技術的程式,例如簡單至換臉、將個人頭像載入公仔載歌載舞,較深層次的則甚至可換臉之餘,亦可說話及貶眼,近日亦有AI歌手翻唱其他人的歌曲。

如接「親友」視像來電有可疑 應致電本人求證

他提到,人工智能及深偽技術近年突飛猛進,騙徒會用深偽技術作詐騙,若市民接獲「親友」視像來電:「如果係好似你親友,叫你要匯錢,睇吓佢啲動作生唔生硬,叫佢擰吓個頭、say 個hi(打聲招呼)」。他表示,若屬於預錄片段,對方難以互動,屆時則會露出破綻。「不過對方都唔會咁蠢,未必畀時間你」,或會於短時間內結束對話,再以其他渠道繼續溝通。他建議,市民若有懷疑,應致電親友本人查證。

社交媒體切忌擺放正面照片

方保僑又說,有網民指近期湧現視像對話來電,接聽後對方未必出聲,又或只展示相片,他表示,有機會是騙徒從中錄影接聽者的樣貌及聲音,呼籲市民勿隨意接聽視像對話來電,社交媒體亦切忌擺放正面照片,「就算無騙案都好,都唔好擺咁多個人資料,依家私隱外露年代,少擺為妙。」若市民曾接聽不明視像對話來電,擔心資料外洩,他指若有擔心可報案,亦可提醒親友警剔防範。

香港資訊科技商會榮譽會長方保僑(資料圖片/夏家朗攝)