報告稱人工智能語音詐騙興起,利用公開音頻合成高管聲音
2020年07月29日17:12

原標題:報告稱人工智能語音詐騙興起,利用公開音頻合成高管聲音

“深度偽造”技術(Deepfake)通常指利用人工智能技術實時偽造面部表情、人聲,併合成高仿真度的視頻與音頻。當前,利用Deepfake 進行語音詐騙正在成為公司詐騙的新型手段之一。

當地時間7月27日,美國科技媒體The Verge報導稱,網絡詐騙犯正在利用Deepfake仿製公司高管的語音,合成語音郵件發送至公司員工,對大型公司進行經濟詐騙。

7月19日,總部位於美國維珍尼亞州的安全諮詢公司NISOS發佈了一份題為《合成音頻Deepfakes的興起》(The Rise of Synthetic Audio Deepfakes)的白皮書,在其中調查並分析了一家科技公司遭遇Deepfake音頻詐騙的事件,並向大眾提出預防該類詐騙的建議。

白皮書稱,敲詐者將一份模仿某公司CEO語音的Deepfake音頻以郵件形式發送給公司員工,要求員工“立即提供幫助以完成緊急商業交易”。

NISOS使用音頻頻譜工具對該語音郵件的Deepfake音頻進行了分析。他們發現,這段Deepfake語音的頻譜圖有峰值反復出現且音頻有不連貫的特點。經過與真實人聲音頻的比對,NISOS稱,相較於合成音頻,真實人聲的音高與音調都更為平滑。

此外,當研究團隊放大合成音頻的音量時,他們無法監測到背景噪音。而在真實人聲的音頻中能夠檢測微弱的背景噪音。這進一步表明這段音頻是經過人為處理的。

值得慶幸的是,這次詐騙並未成功,上述公司員工在收到語音郵件後認為其可疑並將其登記至公司的法律部門。但在此之前,已有諸多利用Deepfake技術進行公司詐騙的案例。

白皮書稱,2019年9月,犯罪分子使用語音複製軟件對英國一家能源公司高管的聲音進行模仿,該公司的執行董事在接聽詐騙電話後將超過24萬美元彙入了一個匈牙利賬戶。目前,該罪犯仍未被抓獲。

2020年2月20日 ,互聯網安全專家公司Symantec報告了三起Deepfake音頻詐騙案例,犯罪分子通過電話會議、YouTube、社交媒體以及TED演講獲得了公司高管的音頻,然後用機器學習技術複製高管的聲音,致電財務部門的高級成員要求緊急彙款。

NISOS注意到,Deepfake音頻創作者為了創建更為逼真的音頻,通常需要克服如下幾個因素:捕獲幾乎沒有背景噪音的高質量音頻;在不需要回電的情況下進行音頻傳送;以留言的形式避免與音頻接收者實時交談。

因此,犯罪分子很可能利用VoIP網絡電話賬號聯繫攻擊對象,並使用語音郵件功能發送合成音頻。VoIP(Voice over Internet Protocol)即基於IP的語音傳輸,可以經由網絡協議(IP)直接與電話進行通話。

隨著Deepfakes的創建或購買變得越來越容易,音頻、視頻的合成處理質量不斷提高。NISOS預計,此類電子詐騙將更為普遍。據The Verge 2020年1月29日的報導,美國聯邦貿易委員會(FTC)在其首個有關音頻複製技術的公開研討會上,警告了語音複製技術詐騙案件的危險性。美國司法部的計算機犯罪和知識產權部門也表示,Deepfakes使犯罪分子能夠進行匿名交流,降低了詐騙難度。

如何預防此類語音詐騙? NISOS建議,由於現有的Deepfake技術還無法模仿整個通話過程,當公司員工察覺語音郵件等音頻有可疑之處時,可以使用已知號碼回撥該發送者進行通話;公司員工也可以針對公司內部信息或某些機器無法輕易回答的問題在通話過程中進行挑戰性提問,以查明通話對象的身份。

關注我們Facebook專頁
    相關新聞
      更多瀏覽