釣魚警報 - 公眾應對利用AI Deepfake技術的偽造視像會議詐騙提高警惕
發佈日期:
2024年02月07日
2346
觀看次數
類別: 網絡釣魚
網絡釣魚警告
現況及相關趨勢
近日,媒體報道警方首次發現有騙徒利用深度偽造(Deepfake)技術製作偽冒視像會議影片,冒充某跨國公司高層進行詐騙。該案涉及一名跨國公司的職員,這名職員最後被騙轉帳了港幣兩億元至五個本地帳戶。
警方表示,相信不法分子透過YouTube取得了該公司高層員工的公開影像和聲音。隨後,不法分子利用Deepfake技術製作了偽冒的視像會議影片片段,進行身份欺騙,冒充公司高層員工,然後對受害者下達指令,要求受害者將大筆資金轉帳至指定帳戶。同時以各種藉口迅速結束會議,使受害者無法提問,導致受害者誤信這些Deepfake的影片是即時的視像會議。
其實Deepfake是深度學習(Deep Learning)和偽造的混成詞。泛指以人工智能(AI)製作偽造訊息,如影像和聲音。常見於影片,影片中的人臉將被換成另一人面。這種技術亦可被用於偽造人聲,只需輸入字句便能假借受害者之聲線讀出,意味著製作深偽影片毋須配音員。然而在本次事件中,就有不法分子利用網上平台找到的臉部外觀和聲音來製作 Deepfake視像會議影片。
HKCERT 呼籲公眾對此類利用AI Deepfake技術的詐騙提高警惕,並採取以下保安最佳實踐以保障自己:
- 在進行視像會議前,應核實會議邀請者及會議連結的來源;
- 對於任何影像和聲音,應該保持謹慎態度,向多方查證當中資訊的真偽;
- 加謹留意影像和聲音,以分辨是否經由 Deepfake 技術製造。與真實的影像和聲音相比,大多數 Deepfake 影像和聲音會有聲畫不一致的細微缺陷;
- 應對可疑視像會議時,可要求對方在鏡頭前做出點頭、揮手、掩面或移動鏡頭等動作;
- 切勿在陌生對話中透露個人敏感訊息,如密碼、銀行賬戶號碼等;
- 避免接聽來自不明來電的視像通話,騙徒可能會藉此收集你的樣貌影像用以製作Deepfake影片;
- 避免在社交平台上分享過多個人資訊,尤其是臉部和語音等生物辨識資訊;
- 收到帶有緊急語調或有好處的資訊時要更加謹慎和警惕,網上騙徒通常會以這些伎倆來吸引更多的受害者跌入其陷阱;
- 進行視像會議時,應檢查並核實與會者的身份,例如透過詢問只有你和該與會者知道的訊息來進行核實;及
- 提防釣魚攻擊,切勿點擊或打開任何可疑連結或附件。
分享至
相關連結