周鴻祎介紹,360與浙大合作發(fā)現(xiàn)了一種“海豚音攻擊”,該攻擊人耳無(wú)法聽見,但通過(guò)超聲波信號(hào)可以劫持智能設(shè)備的語(yǔ)音控制系統(tǒng),再利用麥克風(fēng)的硬件漏洞,就可以悄悄開啟語(yǔ)音助手,把智能音箱變成竊聽器,竊取用戶隱私。
此外,“海豚音攻擊”還可用於攻擊多種擁有語(yǔ)音助手的智能設(shè)備,包括智能手機(jī)、智能手表、智能汽車等。伴隨著越來(lái)越多的智能設(shè)備介入我們的生活,人工智能面臨的安全問(wèn)題也令產(chǎn)學(xué)研各界持審慎態(tài)度。在此次 “人工智能與安全專委會(huì)”成立大會(huì)上,現(xiàn)階段人工智能本身的安全問(wèn)題就成為關(guān)注焦點(diǎn)。
周鴻祎指出,人工智能是個(gè)熱詞,也是未來(lái)的大勢(shì)所趨。但當(dāng)下的人工智能技術(shù)並不完善,存在四大冰點(diǎn):
首先,前端傳感器可以被干擾。人工智能廣泛依賴音視頻採(cǎi)集、紅外感應(yīng)、激光雷達(dá)等各類傳感器。但這些傳感器自身並不安全,能夠被干擾,造成人工智能識(shí)別和決策失誤。“海豚音攻擊”就是干擾語(yǔ)音傳感器的方式之一。
其次,人工智能的數(shù)據(jù)樣本可以被污染。目前人工智能採(cǎi)用深度學(xué)習(xí)模型,黑客可以構(gòu)建畸形輸入或者污染訓(xùn)練數(shù)據(jù)集,進(jìn)行“數(shù)據(jù)投毒”,導(dǎo)致人工智能出錯(cuò)。比如,通過(guò)給智能汽車輸入“污染”過(guò)的訓(xùn)練樣本,就可以把“禁止通行”的交通標(biāo)志牌識(shí)別為“可以通行”,從而造成交通事故。
第三,內(nèi)部算法可以被欺騙。人工智能本質(zhì)上是一種用大量數(shù)據(jù)訓(xùn)練出來(lái)的概率判斷系統(tǒng),其內(nèi)部復(fù)雜的計(jì)算邏輯和決策過(guò)程還不透明,可以被欺騙或繞過(guò)。周鴻祎表示,人工智能也許可以有99.99%的概率保証識(shí)別是正確的,但是對(duì)於安全來(lái)講,它隻要出現(xiàn)一次識(shí)別錯(cuò)誤,就會(huì)造成嚴(yán)重后果。
最后,實(shí)現(xiàn)平臺(tái)有漏洞。周鴻祎介紹,當(dāng)下的人工智能系統(tǒng)都依賴開源的深度學(xué)習(xí)框架,存在大量漏洞,當(dāng)前360研究人員已經(jīng)發(fā)現(xiàn)了40多個(gè)深度學(xué)習(xí)框架的軟件漏洞。
人工智能無(wú)疑是下一輪技術(shù)革命的焦點(diǎn),在技術(shù)高速發(fā)展的同時(shí),如何保持這個(gè)技術(shù)更安全是重中之重。周鴻祎建議,解決人工智能時(shí)代的安全問(wèn)題,能夠防范的唯一方法就是利用基於大數(shù)據(jù)的人工智能。360去年基於安全大數(shù)據(jù)構(gòu)建了360安全大腦,可以實(shí)現(xiàn)網(wǎng)絡(luò)安全的自動(dòng)化、智能化。
“360安全大腦目前還是初級(jí)階段,我們希望通過(guò)開放我們的數(shù)據(jù)、技術(shù)、能力和平臺(tái),與產(chǎn)學(xué)研各界通力合作,真正把360安全大腦的產(chǎn)業(yè)生態(tài)做起來(lái),並在未來(lái)的國(guó)家安全、城市安全、社區(qū)安全,甚至老百姓的家庭安全中發(fā)揮重要作用。”周鴻祎最后說(shuō)道。