像人類一樣,機(jī)器也能識別模糊的面部圖像——而且更快
得克薩斯大學(xué)和康奈爾科技學(xué)院的研究人員稱,打碼(像素化圖像)是模糊身份的狡猾方式,但計算機(jī)可被訓(xùn)練得能識別出這些“被保護(hù)”的人。
如果攻擊者有一套清晰的照片可供練習(xí),被像素化模糊的部分便昭然若揭。只要人工智能(AI)也能有相應(yīng)的清晰照片集用以訓(xùn)練,面部馬賽克作為匿名機(jī)制這種事還是讓它飄散在風(fēng)中吧。
聽起來似乎沒什么大用——人類也能做到同樣的事情,但由于計算機(jī)化了,便可以自動執(zhí)行,也就是說可以日夜不停,快速進(jìn)行。
arXiv科學(xué)論文電子預(yù)印本庫中的一篇論文( http://arxiv.org/pdf/1609.00408v1.pdf )稱,像素化(拼接)、模糊(如YouTube上用的一樣),甚至加密JPEG系數(shù)(被稱為P3的機(jī)制:“隱私保護(hù)照片共享”),也擋不住恢復(fù)被保護(hù)的圖像。
他們認(rèn)為,人工神經(jīng)網(wǎng)絡(luò)可被訓(xùn)練來成功識別人臉、物體和手寫簽名,即使這些圖像用上述模糊技術(shù)處理過?;诓煌瑪?shù)據(jù)集合不同模糊類型,成功率在50%到95%之間。
他們的AI不需要人類來指出重要特征。不僅不需要預(yù)先指定相關(guān)特性,也不用知道部分加密或模糊化的圖像泄露出來的究竟是什么。神經(jīng)網(wǎng)絡(luò)會自動發(fā)現(xiàn)相關(guān)特性,并學(xué)會利用隱藏和可見部分之間的聯(lián)系。
處理照片中唯一的難點(diǎn),在于攻擊者需要巡游社交媒體,搜羅可能出現(xiàn)在給定照片中的可能人臉集合。但對于明星或公眾人物來說,這都不是事。
同樣的方法,適用于恢復(fù)被模糊化了的文本或手寫文字,只要攻擊者能找到訓(xùn)練數(shù)據(jù)集(就像圖像識別模型的基準(zhǔn)一樣存在于網(wǎng)上)。該論文還描述了用于訓(xùn)練此模型的神經(jīng)網(wǎng)絡(luò)架構(gòu),可供意圖更好地保護(hù)圖像隱私的開發(fā)者當(dāng)做參考基準(zhǔn)。