大多數(shù)人都聽說過網(wǎng)絡釣魚軟件,很多人可能會收到公司總經(jīng)理或首席執(zhí)行官的一封電子郵件,要求轉(zhuǎn)移或支付一些資金。出于企業(yè)管理者的要求,很多員工并不總是冷靜進行思考和判斷,很可能會遵守指令并因此蒙受損失。如今,越來越多的人意識到了這種危險,并且通常都會檢查電子郵件的真實性。但是,如果工作人員接到管理者打來的電話,并且也是其熟悉的聲音和節(jié)奏,那么產(chǎn)生可疑的可能性就大大降低。而現(xiàn)在,在Deepfake的一種變體軟件中,可以逼真地模仿企業(yè)管理者的聲音。那么對此如何應對?可以使用人工智能或區(qū)塊鏈與Deepfake開展斗爭嗎?還是對員工進行更多的培訓?三位行業(yè)專家為此分享了自己的觀點。
根據(jù)《華盛頓郵報》的一篇報道,網(wǎng)絡犯罪分子使用了人工智能軟件來騙取了一家英國能源公司22萬美元(19.4萬英鎊)的資金。該公司首席執(zhí)行官接到了他認為是其母公司管理者的電話,并按他的要求轉(zhuǎn)移了這筆巨款。
而Deepfake的另一個例子后果雖然不那么嚴重,但卻有著更為嚴重的影響。一個名為Ctrl Shift的YouTube視頻創(chuàng)作者采用Deepfake在AMC電視連續(xù)劇Better Call Saul中的一個場景中模擬美國總統(tǒng)唐納德·特朗普和其女婿賈里德·庫什納的聲音。
那么組織如何應對Deepfake的威脅?
Faculty公司數(shù)據(jù)科學家Alexander Adam博士表示,Deepfake采用人工智能技術(shù)處理音頻要比視頻難得多。
他解釋說:“人耳對聲波非常敏感,聲波的頻率范圍非常廣,因此產(chǎn)生人類語音要求人工智能算法處理大量聲波。相比之下,人眼只能以每秒30幀左右的速度感知數(shù)據(jù)。這意味著Deepfake視頻中的錯誤與音頻相比并不明顯。
為應對DeepFake應該培訓員工
ESET公司網(wǎng)絡安全專家Jake Moore表示企業(yè)需要將重點放在培訓人員上。
他說:“在不久的將來,我們將看到機器學習的網(wǎng)絡犯罪大量增加。我們已經(jīng)看過Deepfake模仿名人和公眾人物的視頻,但是為了創(chuàng)建令人信服的材料,網(wǎng)絡犯罪分子使用在公共領(lǐng)域提供的素材。隨著計算能力的提高,我們發(fā)現(xiàn)創(chuàng)建視頻和聲頻變得更加容易,人們將面臨更加可怕的風險。
為了幫助減少這些風險,企業(yè)應該從提高認識和教育員工開始,然后引入第二層保護和驗證,這是很難偽造的,例如采用一次性的密碼生成器(OTP設(shè)備)。雙因素身份驗證是一種功能強大、成本低廉且簡單的技術(shù),它可以添加額外的安全層,以保護企業(yè)的資金不流入這些網(wǎng)絡犯罪分子的帳戶。
在人們了解它之前,Deepfake帶來的威脅將更具說服力,因此企業(yè)需要考慮盡快投資檢測Deepfake的軟件。但是企業(yè)應該把重點放在培訓員工上,而不是僅僅依靠軟件。”
區(qū)塊鏈對Deepfake的回應
普華永道公司的專家、技術(shù)領(lǐng)先者和解決方案架構(gòu)師Kevin Gannon說:“當涉及到信息技術(shù)領(lǐng)域時,新興的技術(shù)脫穎而出,并將提供一定程度的安全性、批準和驗證。很多企業(yè)通常宣稱區(qū)塊鏈可以提高可見性和透明度,一旦做某事,可以了解是誰做的以及何時做的,當擁有數(shù)字身份的用戶想要做某事時,可以提示他們提供身份證明,然后才可以授予某項(例如資金)訪問權(quán)限。從另一個角度來看,可以通過區(qū)塊鏈應用程序來證明視頻、音頻文件的實際真實性,在應用程序中可以將某些文件的散列(假設(shè)的證明)與原始文件進行比較。盡管這不是靈丹妙藥,但與往常一樣,以正確的方式采用和應用該技術(shù)是關(guān)鍵。從安全性的角度來看,更開放的數(shù)據(jù)機制(如公共分類帳)具有更大的攻擊面,因此不能假定固有的保護。
但在批準過程中加強安全協(xié)議,其中智能合同也可以發(fā)揮作用,可以加強這樣的過程。此外,在技術(shù)層面上,通過在進程中應用多SIG(多重簽名)事務可以意味著即使一個身份被破壞,也可以提供多個身份來獲得最終批準。”
人工智能和Deepfake
Alexander Adam博士對于如何使用人工智能對抗Deepfake進行了分析。他說,“機器學習算法非常適合識別大數(shù)據(jù)中的模式。機器學習可以通過使用分類技術(shù)來提供一種從真實音頻中檢測假音頻的方法,其分類技術(shù)通過向算法顯示大量的Deepfake和真實音頻并教會區(qū)分兩者之間的頻率差異開展工作。例如,通過在音頻頻譜圖上使用圖像分類,可以教會機器學習模型‘發(fā)現(xiàn)差異’。但是現(xiàn)在還沒有現(xiàn)成的解決方案。
其部分原因是,模擬音頻的Deepfake并未像模擬視頻Deepfake一樣受到威脅。音頻Deepfake并不完美,如果它是針對某人認識的特定人物量身定制的,那么應該能夠分辨出兩者之間的區(qū)別。也就是說,電話的干擾或外部背景噪聲可能會掩蓋這種情況。而且,由于媒體對Deepfake視頻的關(guān)注度很高,因此人們可能不太了解音頻Deepfake的潛在風險。
但是我們預計,在未來幾年中,惡意音頻Deepfake的創(chuàng)建和使用將會增加,并且會變得更加復雜。這是因為網(wǎng)絡攻擊者可能對機器學習模型有更好的了解,以及如何將在一個模型上使用的知識轉(zhuǎn)移給另一個模型并快速進行訓練。因此人們需要注意的是,隨著Deepfake生成的內(nèi)容變得越來越好,檢測方法也需要隨之進行改進。”