深度偽造:有圖未必有真相
「深度偽造(Deepfake)」是「深度學習(Deep learning)」和「偽造(Fake)」的組合詞。它利用深度學習技術訓練大規模的數據,包括人臉圖像、語音,以及視頻等。這些數據用於模仿和學習不同人的特征、動作和聲音。然後,再利用人工智能(AI)技術創建虛假內容,包括假的圖像、聲音和影片,從而實現AI換臉或者語音複製等功能。
AI換臉
AI換臉是一種利用AI將一個人的臉替換成另一個人的臉的技術。這種技術通過面部識別和面部捕捉來執行臉部替換。如今,只需一張人臉的正面照片,AI就能輕鬆完成替換過程。即使使用者的頭部在轉動,AI也能追蹤使用者的臉部位置及面向方向,將其與替換的臉部自然地融合。現時AI換臉技術主要有三種形式:
1. 將你的臉替換成照片內的人臉:把照片內的人臉「套」在鏡頭前的人的臉上。
2. 將你的表情應用到一幅照片上:捕捉攝像頭前人物的表情變化,包括嘴唇、眼睛、眉毛、面頰和頭部等表情動作,並將這些表情反映到照片中另一個人的臉上。通過這種方式,觀看者會覺得在和照片的人親身交流一樣。
3. 將語音生成表情:根據錄製或即時的語音輸入,生成照片內的人的臉部表情和頭部動態,並將照片轉換爲影片,看起來就像照片內的人在說使用者所輸入的聲音。然而,這項技術還處於研究階段,尚有很多限制。
來源:Emote Portrait Alive (EMO) demo
AI換臉技術的效果因應用情境而異。除了透過編輯已錄制的影片以外,有些工具甚至可以在實時視訊中替換臉部。通常,這種技術會產生逼真的替換效果,難以分辨真假。
語音複製
語音複製是一種利用AI複製聲音的技術。複製出的聲音聽起來像現實生活中的人聲,包括速度、音調、口音和風格。語音複製有兩種呈現方式:
1. 文字轉語音:使用者輸入文字,AI系統用所複製的聲音將文字以讀出。
2. 語音轉語音:使用者輸入語音,這種方式則是將原始聲音替換爲複製的聲音。
要達到高品質的語音複製效果,通常需要大量的訓練資料(超過10小時的目標人聲錄音),和長時間的訓練(超過10小時,具體取決於硬體性能)。
透過上述兩種AI換臉和語音複製的技術,再結合大規模的資料訓練,我們可以在AI系統中創造出任何人的逼真覆制品,使其視視覺和聽覺效果都極具真實感,達到移花接木,難以分辨的地步。
網絡安全的新威脅
儘管深度偽造技術在娛樂和醫療領域中有著積極的應用,例如數位化重現已故演員的影像,或重現因疾病或意外失去聲音的人的聲音。然而深度偽造最廣為人知的用途卻是製作虛假的名人視頻或音頻,以傳播虛假或誤導性訊息。除此之外,人們也可能濫用這項技術來製作色情影像或進行詐騙。因此,深度偽造技術的危險性不容忽視,這種危險性在一些真實案例中得到了充分證實。
最近真實案例
1. 2023年8月,一個犯罪集團因爲使用深度偽造技術偽造身分以申請貸款而被抓捕。
來源:明報
2. 2024年1月,一段虛假視頻開始流傳,其中香港特首李家超在銷售投資產品。罪犯透過使用深度偽造技術生成了李家超的假聲音,使這段視頻看起來更加真實。
來源:明報
3. 2024年2月,香港警方指出,一家跨國公司的財務員在視訊會議中被騙。罪犯利用深度偽造技術冒充了該公司的首席財務官,從而騙取了這家公司2億港元。
來源:HK01
4. 2024年2月,一位烏克蘭YouTuber發現她的聲音和臉部被盜用,罪犯同樣利用了深度偽造技術將她冒充爲一位虛假網路名人在中國社交媒體上進行商品推廣。
來源:香港經濟日報
濫用深度偽造的影響
在如今的互聯網上,有許多深度偽造軟體提供了簡易使用的介面,使罪犯可以輕易地生成深度偽造內容,甚至通過雲端服務進行詐騙。這種易於獲取性使得在網路上創建和傳播深度偽造內容變得輕而易舉。
更令人擔憂的是,深度偽造技術甚至有可能繞過生物辨識安全系統(例如,臉部或聲音認證),進一步加劇網路安全的風險。此外,深度偽造技術的濫用還可能引發更多的網絡釣魚和詐騙,虛假和誤導資訊,以及帶來信任和信譽危機等負面影響。
網路釣魚和詐騙
來自香港和全球的犯罪案件令人擔憂。深度偽造技術使罪犯能夠創建更複雜的網路釣魚攻擊。 過去,網路釣魚攻擊主要依賴文字資訊。 然而,借助深度偽造技術,罪犯越來越多地利用這個技術冒充他人身份,向受害人的親朋或同事進行詐騙行為。尤其在大家已習慣使用視訊通話或透過視像會議進行溝通的年代,更會促使騙徒制作更多深度偽造影片,蒙騙受害人。
虛假和誤導資訊
罪犯制作冒充名人、政要、官員等的深度偽造影片來傳遞虛假或誤導資訊,例如假投資建議、假分享或言論等,誤導受害人的決策行為,甚至製造社會矛盾。
信任和信譽危機
深度偽造內容可能在網路上造成不信任的氛圍。由於深度偽造很難辨別,如果網絡上大量充斥著這類影片,真實的資訊亦會被影響波及。因為人們不能輕易地分清所接收的資訊是否混合了深度偽造的内容,最終變成不信任任何資訊,以防受騙。
另外,深度偽造內容會取代以往「移花接木」式的偽造影片,例如制作不雅、粗俗或暴力影片,令人誤以為受害人參與某些活動,即使觀眾半信半疑,亦會令受害人聲譽受損。
如何辨識深度偽造?
辨認深度偽造技術相當困難。雖然現在有些在線工具聲稱能夠檢測視訊中是否使用了深度偽造技術,但實際上,辨認真偽的關鍵仍然在於公眾的安全意識。尤其是在即時視訊場景中,如視訊通話或線上會議,我們需要時刻保持警惕。以下是HKCERT提供的一些辨識小技巧:
如果你收到可疑的視訊通話,你可以採取以下措施:
干擾深度僞造軟體的辨識功能
1. 請對方慢慢用手遮住臉部。這樣可能會使對方的原本樣貌顯現出來,因為深度偽造軟體可能無法辨識遮住的人臉。
2. 請對方移動攝影機,拍攝到另一個人。在這種情況下,深度偽造軟體可能會認錯要換臉的對象,導致二人的臉瞬間改變,被來回替換。
觀察對方的臉部細節異常之處
3. 觀察對方的臉部細節,以辨識其在頭部移動時是否有任何異常。
4. 觀察皮膚顏色,臉部顏色可能與其他部位的膚色(例如脖子,肩膀等)有所不同。
5. 觀察皮膚紋理,檢查是否看起來過於光滑或有過多的皺紋。
6. 觀察面部特徵,檢查是否有任何不自然的特徵。例如:
- 鬍鬚和髮型看起來是否真實;
- 對方的眼睛看起來是否自然;
- 面部表情是否過於僵硬;
- 說話時是否有顯露不合理的表情,如輕鬆的內容卻表情嚴肅。
7. 觀察頭部以下的身體或背景事物是否一直固定不動。
試探對方反應或回應
8. 詢問只有你和對方才知道的事實,以驗證對方身份。
參考資料
- Implications of Deepfake Technologies on National Security
- The Rise of Deepfake: Understanding Its Implications, Ethics & Mitigation Plan
- EMO: Emote Portrait Alive – Generating Expressive Portrait Videos with Audio2Video Diffusion Model under Weak Conditions
分享至