還想打馬賽克掩蓋身份?人工智能讓你告別打碼時代

責(zé)任編輯:editor005

作者:nana

2016-09-07 15:10:00

摘自:安全牛

得克薩斯大學(xué)和康奈爾科技學(xué)院的研究人員稱,打碼(像素化圖像)是模糊身份的狡猾方式,但計算機(jī)可被訓(xùn)練得能識別出這些“被保護(hù)”的人。該論文還描述了用于訓(xùn)練此模型的神經(jīng)網(wǎng)絡(luò)架構(gòu),可供意圖更好地保護(hù)圖像隱私的開發(fā)者當(dāng)做參考基準(zhǔn)。

像人類一樣,機(jī)器也能識別模糊的面部圖像——而且更快

得克薩斯大學(xué)和康奈爾科技學(xué)院的研究人員稱,打碼(像素化圖像)是模糊身份的狡猾方式,但計算機(jī)可被訓(xùn)練得能識別出這些“被保護(hù)”的人。

如果攻擊者有一套清晰的照片可供練習(xí),被像素化模糊的部分便昭然若揭。只要人工智能(AI)也能有相應(yīng)的清晰照片集用以訓(xùn)練,面部馬賽克作為匿名機(jī)制這種事還是讓它飄散在風(fēng)中吧。

聽起來似乎沒什么大用——人類也能做到同樣的事情,但由于計算機(jī)化了,便可以自動執(zhí)行,也就是說可以日夜不停,快速進(jìn)行。

arXiv科學(xué)論文電子預(yù)印本庫中的一篇論文( http://arxiv.org/pdf/1609.00408v1.pdf )稱,像素化(拼接)、模糊(如YouTube上用的一樣),甚至加密JPEG系數(shù)(被稱為P3的機(jī)制:“隱私保護(hù)照片共享”),也擋不住恢復(fù)被保護(hù)的圖像。

他們認(rèn)為,人工神經(jīng)網(wǎng)絡(luò)可被訓(xùn)練來成功識別人臉、物體和手寫簽名,即使這些圖像用上述模糊技術(shù)處理過?;诓煌瑪?shù)據(jù)集合不同模糊類型,成功率在50%到95%之間。

他們的AI不需要人類來指出重要特征。不僅不需要預(yù)先指定相關(guān)特性,也不用知道部分加密或模糊化的圖像泄露出來的究竟是什么。神經(jīng)網(wǎng)絡(luò)會自動發(fā)現(xiàn)相關(guān)特性,并學(xué)會利用隱藏和可見部分之間的聯(lián)系。

處理照片中唯一的難點(diǎn),在于攻擊者需要巡游社交媒體,搜羅可能出現(xiàn)在給定照片中的可能人臉集合。但對于明星或公眾人物來說,這都不是事。

同樣的方法,適用于恢復(fù)被模糊化了的文本或手寫文字,只要攻擊者能找到訓(xùn)練數(shù)據(jù)集(就像圖像識別模型的基準(zhǔn)一樣存在于網(wǎng)上)。該論文還描述了用于訓(xùn)練此模型的神經(jīng)網(wǎng)絡(luò)架構(gòu),可供意圖更好地保護(hù)圖像隱私的開發(fā)者當(dāng)做參考基準(zhǔn)。

鏈接已復(fù)制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號-6京公網(wǎng)安備 11010502049343號