AI領(lǐng)域一些引人注目的進(jìn)步,尤其是在消化了訓(xùn)練數(shù)據(jù)集后能識(shí)別聲音或物體的機(jī)器學(xué)習(xí)算法,刺激了語(yǔ)音助手和自動(dòng)駕駛汽車的發(fā)展。但這些AI應(yīng)用很容易被欺騙。
在此次會(huì)議上,對(duì)抗性攻擊是一個(gè)熱門主題。研究人員報(bào)告了欺騙AI以及保衛(wèi)它們的各種新方法。令人擔(dān)憂的是,會(huì)議的兩個(gè)最佳論文獎(jiǎng)之一給了這樣的結(jié)論:其發(fā)現(xiàn)受到保護(hù)的AI并非像其開(kāi)發(fā)者可能認(rèn)為的那樣安全。“我們這些機(jī)器學(xué)習(xí)領(lǐng)域的專家并不習(xí)慣于從安全性的角度看待問(wèn)題。”共同主導(dǎo)上述3D打印研究的麻省理工學(xué)院(MIT)計(jì)算機(jī)科學(xué)家Anish Athalye表示。
致力于研究對(duì)抗性攻擊的計(jì)算機(jī)科學(xué)家表示,他們正在提供一種服務(wù),就像指出軟件安全缺陷的黑客一樣。“我們需要重新思考所有的機(jī)器學(xué)習(xí)途徑,以便使其更強(qiáng)勁。”MIT計(jì)算機(jī)科學(xué)家Aleksander Madry認(rèn)為。
研究人員表示,這些攻擊在科學(xué)上也有用處,為了解被稱為神經(jīng)網(wǎng)絡(luò)的AI應(yīng)用提供了罕見(jiàn)的窗口。神經(jīng)網(wǎng)絡(luò)的內(nèi)在邏輯無(wú)法得到清晰明了的解釋。加州大學(xué)伯克利分校計(jì)算機(jī)科學(xué)家Dawn Song表示,對(duì)抗性攻擊是強(qiáng)大的鏡頭,“透過(guò)它,我們能理解獲得的機(jī)器學(xué)習(xí)知識(shí)”。
去年,Song和同事將一些貼紙放到停車標(biāo)志上,從而欺騙一種常見(jiàn)的圖像識(shí)別AI認(rèn)為其是每小時(shí)不超過(guò)45英里的限速標(biāo)志。這一結(jié)果令自動(dòng)駕駛汽車公司不寒而栗。
研究人員正在設(shè)計(jì)更復(fù)雜的攻擊。在另一場(chǎng)會(huì)議上,Song還將報(bào)告一種讓圖像識(shí)別AI不只誤判物體,還對(duì)其產(chǎn)生幻覺(jué)的“花招”。在一項(xiàng)測(cè)試中,凱蒂貓隱約出現(xiàn)在機(jī)器的街景視圖中,而路上行駛的汽車卻消失了。