深度偽造(Deepfake)技術(shù)可以訓(xùn)練人工智能系統(tǒng)來模仿某人的面孔,通常是演員或其他知名人士的面孔。然后,人工智能技術(shù)可以制作動(dòng)畫并將其面孔粘貼到視頻中,從而將克隆的對(duì)象插入到場(chǎng)景中。
但是不能只是他們的影像放在視頻中,還要偽造他們的聲音。這就是音頻深度偽造發(fā)揮作用的地方,可以訓(xùn)練人工智能技術(shù)來模仿某人的聲音,然后以其聲音說出內(nèi)容。
專家認(rèn)為,一旦深度造假技術(shù)達(dá)到一定的水平,將推動(dòng)一個(gè)充滿錯(cuò)誤信息、騷擾和蹩腳電影的新時(shí)代。
在2020年,阿聯(lián)酋的一名銀行經(jīng)理接到了一家大公司董事的電話。該董事聲稱其所在的公司正在進(jìn)行一項(xiàng)大型收購(gòu),所以要求這家銀行授權(quán)向美國(guó)的幾個(gè)賬戶轉(zhuǎn)賬3500萬美元。他表示已經(jīng)發(fā)送一封來自律師的電子郵件來確認(rèn)這筆轉(zhuǎn)賬,由于一切看起來都是合法的,銀行經(jīng)理確認(rèn)了這筆轉(zhuǎn)賬。
但這家公司的“董事”實(shí)際上是一個(gè)經(jīng)過訓(xùn)練的“deep voice”算法,聽起來就像他的聲音。阿聯(lián)酋有關(guān)部門目前正在尋求美國(guó)警方的幫助,以追回丟失的這些資金。據(jù)悉,這些資金被17名或更多的欺詐者轉(zhuǎn)移到他們?cè)谌蚋鞯氐馁~戶上。
這并不是Deepfake實(shí)施的第一次欺詐和搶劫,但卻是迄今為止最成功的一次。類似的事件顯然將來還會(huì)發(fā)生,而且規(guī)??赡軙?huì)大得多。那么企業(yè)和政府能做些什么來減輕威脅呢?很難說。
因?yàn)镈eepfakes技術(shù)仍在不斷改進(jìn),最終會(huì)變得更強(qiáng)大,以至于人類無法正確識(shí)別。但經(jīng)過訓(xùn)練的人工智能可能識(shí)別出深度偽造的行為,因?yàn)榭寺∈芎φ叩拿婵缀吐曇敉恍╁e(cuò)誤,例如數(shù)字噪音或人類不可能發(fā)出的一些聲音。
版權(quán)聲明:本文為企業(yè)網(wǎng)D1Net編譯,轉(zhuǎn)載需注明出處為:企業(yè)網(wǎng)D1Net,如果不注明出處,企業(yè)網(wǎng)D1Net將保留追究其法律責(zé)任的權(quán)利。