李飛飛等人的新研究,可能讓人工智能真的不需要人了

責(zé)任編輯:zsheng

2019-01-17 12:35:20

摘自:PingWest品玩

你可能聽(tīng)說(shuō)過(guò),在河南的農(nóng)村里,在非洲的城市中,每一個(gè)你想象不到的地方,有著大量的數(shù)據(jù)標(biāo)注員。

你可能聽(tīng)說(shuō)過(guò),在河南的農(nóng)村里,在非洲的城市中,每一個(gè)你想象不到的地方,有著大量的數(shù)據(jù)標(biāo)注員。

他們手動(dòng)在圖片里把每一只花瓶和每一輛汽車(chē)框出來(lái),并且標(biāo)上“花瓶”和“汽車(chē)”。一段時(shí)間后,這些人把成千上萬(wàn)張標(biāo)記好的圖片打包,發(fā)送給遠(yuǎn)在北京、上海甚至舊金山的 AI 公司。

GQ 將這些人稱(chēng)為《那些給人工智能打工的人》。

人工智能發(fā)展迅速,大大小小的互聯(lián)網(wǎng)科技公司相繼開(kāi)展研究,投入商用。然而訓(xùn)練一個(gè)可用的 AI,需要大量準(zhǔn)確標(biāo)記好的圖片、視頻等資料。

正因?yàn)榇?,市?chǎng)對(duì)數(shù)據(jù)標(biāo)注的需求如此之大,吸引“那些給 AI 打工的人”爭(zhēng)相加入,其中不乏原來(lái)找不到工作的閑散人員——畢竟這份工作只需要?jiǎng)觿?dòng)鼠標(biāo),用不上太多知識(shí)。

但是,恐怕不久后,這些人就將再次失業(yè)。

上周,來(lái)自約翰·霍普金斯大學(xué)、斯坦福大學(xué)和 Google 的專(zhuān)家聯(lián)合發(fā)布了一篇論文,介紹了他們使用神經(jīng)網(wǎng)絡(luò)來(lái)自動(dòng)搜索神經(jīng)網(wǎng)絡(luò),將其投入圖像分割方面的研究,并且取得的重要進(jìn)展:

研究人員采用神經(jīng)架構(gòu)搜索 (Neural Architecture Seartch, NAS) 技術(shù)設(shè)計(jì)了一個(gè)神經(jīng)架構(gòu) (A),放任它去自動(dòng)搜索/設(shè)計(jì)出新的神經(jīng)架構(gòu) (B),投入到圖像語(yǔ)義分割 (semantic image segmentation) 的任務(wù)中。

研究人員發(fā)現(xiàn),這個(gè)被自動(dòng)搜索出來(lái)的神經(jīng)架構(gòu) B,在主流的小規(guī)模圖像數(shù)據(jù)集上,未經(jīng)訓(xùn)練就直接使用,表現(xiàn)已經(jīng)超過(guò)了現(xiàn)有人類(lèi)設(shè)計(jì)的、預(yù)先訓(xùn)練好的模型。

以往人們一直相信,設(shè)計(jì) AI 需要大量知識(shí)和經(jīng)驗(yàn),簡(jiǎn)而言之就是需要人來(lái)設(shè)計(jì)。

但現(xiàn)在,AI 設(shè)計(jì)出的 AI,已經(jīng)比人設(shè)計(jì)出的 AI 更強(qiáng)。

論文的標(biāo)題叫做: Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Image Segmentation

研究人員將這個(gè)能夠自動(dòng)搜索(設(shè)計(jì))神經(jīng)架構(gòu)的技術(shù)命名為Auto-DeepLab。這個(gè)名字來(lái)自于 DeepLab,Google 人工開(kāi)發(fā)的圖像語(yǔ)義分割技術(shù)。前面加上 Auto,意思是在 DeepLab 的基礎(chǔ)上,新的技術(shù)可以實(shí)現(xiàn)了很大程度的自動(dòng)化。

論文署名作者當(dāng)中,兩人來(lái)自約翰·霍普金斯大學(xué),其中第一作者是 Chenxi Liu,曾在 Google 實(shí)習(xí);有四人來(lái)自 Google;剩下的一人來(lái)自斯坦福大學(xué),正是原 Google Cloud 首席科學(xué)家,在計(jì)算機(jī)視覺(jué)學(xué)術(shù)和業(yè)界知名的李飛飛教授。

“本著 AutoML(編者注:Google 主導(dǎo)的 AI 計(jì)劃,將算法選擇,模型的超參數(shù)調(diào)整,迭代建模和模型評(píng)估等工作自動(dòng)化。)和人工智能普及化的精神,對(duì)于不依賴(lài)專(zhuān)家經(jīng)驗(yàn)知識(shí),自動(dòng)設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)架構(gòu),人們的興趣有了顯著提升。”作者提到。

在“AI 自動(dòng)設(shè)計(jì) AI”這件事上,Auto-DeepLab 有幾個(gè)比較重要的新嘗試。

首先,神經(jīng)架構(gòu)搜索 NAS 技術(shù)是 AI 領(lǐng)域的新興物種,主要用于簡(jiǎn)單的圖片分類(lèi)。而在這篇論文里,研究者首次嘗試將 NAS 投入到高密度的圖片預(yù)測(cè)任務(wù)上(也就是對(duì)更復(fù)雜的高分辨率圖片進(jìn)行語(yǔ)義分割,比如 Cityscapes 城市街景數(shù)據(jù)集、PASCAL VOC 2012 和ADE20K 等數(shù)據(jù)集)。

其次,在計(jì)算機(jī)視覺(jué)領(lǐng)域內(nèi)的神經(jīng)網(wǎng)絡(luò)架構(gòu),通常分為內(nèi)層、外層的兩級(jí)架構(gòu),自動(dòng)化的神經(jīng)架構(gòu)設(shè)計(jì)往往只能設(shè)計(jì)內(nèi)層,外層仍需要人來(lái)設(shè)計(jì)和手調(diào)。而 Auto-DeepLab 是第一個(gè)讓 AI 掌握外層設(shè)計(jì)和調(diào)參能力,并在圖像語(yǔ)義分割任務(wù)上得到優(yōu)異結(jié)果的嘗試。

“圖像語(yǔ)義分割”六個(gè)字聽(tīng)上去有點(diǎn)拗口,其實(shí)很好理解:對(duì)于一張圖劃分幾個(gè)類(lèi)別,然后將所有的像素點(diǎn)歸類(lèi)。

比如下面這張圖,可以簡(jiǎn)單分為三類(lèi)。圖像語(yǔ)義分割的任務(wù),就是判斷每一個(gè)像素點(diǎn)屬于人、自行車(chē),還是背景。

需要明確的是,圖像語(yǔ)義分割的任務(wù)純粹是判斷像素點(diǎn)屬于哪個(gè)類(lèi)別,它不能識(shí)別和區(qū)分獨(dú)立的物體。

不過(guò)圖像語(yǔ)義分割仍然有很重要的意義,比如在它可以用于手機(jī)拍照的“人像模式”。采用更優(yōu)秀的圖像語(yǔ)義分割技術(shù),手機(jī)能夠在更高精度的照片里確認(rèn)每一個(gè)像素點(diǎn),屬于人,亦或是背景。

目前 Google、小米等公司都在手機(jī)拍照上使用這一技術(shù)。理論上,未來(lái)的“人像模式”可以在毛發(fā)、衣物邊緣實(shí)現(xiàn)更好的效果。

以及在自動(dòng)駕駛的場(chǎng)景里,神經(jīng)網(wǎng)絡(luò)需要判斷擋在前面的是車(chē)、行人還是建筑物,進(jìn)而采用不同策略進(jìn)行躲避,這同樣需要圖像語(yǔ)義分割來(lái)打基礎(chǔ)。

從該論文體現(xiàn)的效果來(lái)看,Auto-DeepLab 還可以被轉(zhuǎn)移到其他任務(wù)上。言外之意,讓 AI 自動(dòng)設(shè)計(jì) AI 這件事,可能還會(huì)有很大的想象空間。

比如作者在論文最后提到,在目前的研究框架內(nèi),他們可以繼續(xù)在物體識(shí)別的方向進(jìn)行研究。

如果能夠取得類(lèi)似的結(jié)果,大規(guī)模使用,沒(méi)準(zhǔn)有一天,在數(shù)據(jù)標(biāo)注(特別是圖像標(biāo)注)這件事上,人類(lèi)標(biāo)注員的成本等優(yōu)勢(shì)可能也會(huì)消失。

如果人工智能可以給人工智能打工,打工效率比人還高……

“那些給人工智能打工的人”,會(huì)失去工作嗎?

鏈接已復(fù)制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號(hào)-6京公網(wǎng)安備 11010502049343號(hào)