應對來自Deepfake的威脅

網絡犯罪份子使用deepfake去攻擊企業的行為持續增加,透過AI製作像真的照片、影片和聲音,在5年急速發展後,已經能做到單憑肉眼難以分辨的質素,面對這樣的威脅,一般用戶應該如何應對?

像真度可以有多高?

在2021年7月有愛好者發佈了一段由deepfake製作,Morgan Freeman談及對現實看法的影片,畫面的像真度極高,但他並不是Morgan Freeman,無論面部表情、頭髮等細微部份都達到高質素,甚至沒有影片被加工過的痕跡,展示了一條優質的deepfake影片如何容易欺騙我們對現實的看法。

Deepfake的危險

最容易找到deepfake的地方就是色情內容,名人首當其衝成為受害者,不過即使較少人認識的人也開始要擔心,有很多不同的「用法」已經面世,例如校園欺凌、要求傳送金錢的詐騙電話、對公司管理層進行勒索和商業間諜等等,早年被認為是潛在威脅,現在已經一一實現。

首個被發現用作針對企業的攻擊出現在2019年,騙徒使用了變聲的技術攻擊英國能源公司,偽裝其CEO嘗試盜取22萬英鎊,第二宗個案發生在2020年的阿聯酋,同樣是使用了聲音的deepfake,攻擊者成功欺騙銀行經理並盜取3500萬美元,騙徒也把活動範圍擴展至電郵和社交媒體之外,足以採取更先進的方法使用聲音deepfake進行攻擊。在2022年有個類似的個案,騙徒嘗試欺騙最大加密貨幣平台Binance,公司的行證人員對突然收到未參加過的Zoom會議感謝訊息感到奇怪,單憑他公開的相片,攻擊者能透過公開的照片製作deepfake,並用於網上會議上。

此外,在傳統的網絡釣魚之外,現在還有deepfake詐騙,能夠用來強化傳統的社交工程活動,例如散播虛假訊息、勒索和間諜等等,根據一個FBI的警告,已經有HR經理遇到網絡罪犯利用deepfake應徵遙距工作,攻擊者能利用網絡上找到的他人照片去製作deepfake,然後盜取個人資料去瞞騙HR經理去聘請他們,這讓攻擊者可能有機會接觸員工的資料,甚至在公司基礎設施內設置惡意程式。

危險有多接近我們?

儘管有以上個案,但情況有多惡劣,事實上大家也無需過份擔憂,因為製作高質素的deepfake是一個昂貴的過程,首先製作deepfake需要大量數據,越多廣泛的數據被使用,越能製作具說服力的deepfake,如果單憑照片,便需要從多個角度拍攝,有不同的高度和光線設定,以及不同的面部表情,而且需要人手作微調,在這部份自動化功能並沒有多大效用。其次是想製作難辨真假的deepfake,便需要專門的軟件和大量運算容量,以及有一定的成本預算,利用免費軟件嘗試在家製作deepfake只能得到非像真的結果。

而上述提到的deepfake Zoom會議則令步驟更加複雜,因為要令化「上網」時依舊保持難辨真假的模樣,雖然有應用程式專門令deepfake能夠即時串流,但只限於預先編程的人的數碼克隆,而不是創建新的假身份,預設的選項更通常是知名的人物(因為互聯網上有大量他們的照片)。換句話說,deepfake雖然可行但成本卻十分昂貴,與其他詐騙相比有更加便宜和容易的選項,所以暫時deepfake的詐騙只被少量網絡犯罪份子採用。

不過大家不要掉以輕心,因為科技一日千厘,在數年之內威脅可能急劇上升,已經有人嘗試使用現代流行的生成模型去創建deepfake,這種模型不同讓用戶轉換臉蛋,也能接近所有想更換的部位。

防護deepfake威脅的方法

很可惜現時並沒有deepfake詐騙的專門防範方案,只能做到降低風險,正如其他社交工程的方法,deepfake詐騙目標是人類,而人類往往是企業保安內的的最弱一環,所以首先要培訓要工有關攻擊的安全意識,攻擊的可能性並解釋這種新威脅,嘗試從影像中尋找deepfake的蛛絲馬跡。

影像中查看的位置:

  • 不自然的眼睛移動
  • 不自然的面部表情和移動
  • 不自然的頭髮和表膚顏色
  • 奇怪的面部特徵位置
  • 缺乏感情
  • 過於光滑的臉
  • 雙眼眉

提升保安步驟,在涉及傳送敏感資料的步驟部署多重認證,又或者異常偵測技術去偵測和反應不尋常的用戶行為。利用製作deepfake的相同工具——機器學習進行反擊也是一種方法,Twitter和Facebook這類大型企業已經開發他們自家的偵測工具,可惜一般大眾並未能享用,不過也顯示網絡保安社群明白deepfake威脅並開始針對性的防護工作。

資料來源:Kaspersky Blog