“人工智能”還是“智能人工”?外媒曝大量科技公司雇人扮AI

責(zé)任編輯:zsheng

作者:陸雨聆

2018-07-16 07:24:59

摘自:觀察者網(wǎng)

人工智能將徹底取代人類勞動(dòng)力?

人工智能將徹底取代人類勞動(dòng)力?

這一天也許離我們還很遙遠(yuǎn)。本月,科技行業(yè)有個(gè)“不可告人的秘密”遭到外媒曝光:很多美其名曰“人工智能”的高科技,竟壓根就是真人手動(dòng)操作的“智能人工”。

 

點(diǎn)擊查看大圖

 

點(diǎn)擊查看大圖

“智能人工”vs“人工智能 ”圖源:fossbytes網(wǎng)站

事情要從本月初說(shuō)起。2日,《華爾街日?qǐng)?bào)》在刊文曝出了一宗“谷歌郵件泄露”丑聞。為了優(yōu)化客戶服務(wù)體驗(yàn),谷歌郵箱(Gmail)竟允許上百家第三方App的開(kāi)發(fā)人員瀏覽用戶的電子郵件。

涉事公司之一,eDataSource的前CTO錫德·羅德(Thede Loder)表示,讓員工“偷偷”讀用戶郵件的事,在數(shù)據(jù)服務(wù)行業(yè)中早已屢見(jiàn)不鮮。但是他解釋,這么做是為了改進(jìn)軟件算法,訓(xùn)練AI系統(tǒng),所以工程師們只是“偶爾看看”,也就是讓工程師“輔助”AI。

其他諸如Return Path 和Edison Software等軟件公司的說(shuō)法,和羅德如出一轍。

事情在第二天便得到了谷歌的承認(rèn)。但除了是否侵犯用戶隱私外,字里行間顯然還隱藏著另一個(gè)重要的問(wèn)題:

為什么讀郵件的都是人工?

這還沒(méi)完。英國(guó)《衛(wèi)報(bào)》在6日繼續(xù)“吐槽”稱,讓人來(lái)“輔助”AI已經(jīng)不錯(cuò)了,以往還有很多更過(guò)分的“黑科技”。

2008年,英國(guó)一個(gè)自稱可以“自動(dòng)將語(yǔ)音留言轉(zhuǎn)為文本短信”的SpinVox軟件,被人指控在南非、菲律賓等地設(shè)立了海外呼叫中心。

2016年,彭博社曝光美國(guó)創(chuàng)業(yè)公司X.ai(AI啊這公司名字就叫AI)推出的“人工智能私人助理Amy”,“后臺(tái)”居然是一支不眠不休的人工團(tuán)隊(duì)。Amy號(hào)稱可以幫用戶完成會(huì)議安排和發(fā)送電子郵件等簡(jiǎn)單任務(wù),但受訪員工稱,自己需要每天工作12 小時(shí),假扮虛擬助理完成一系列單調(diào)無(wú)聊到“令人麻木”的工作。

去年,推出了企業(yè)費(fèi)用管理App的跨國(guó)公司Expensify承認(rèn),他們一直使用人工來(lái)處理他們的主打產(chǎn)品“智能掃描技術(shù)”(SmartScan)的部分收據(jù)轉(zhuǎn)錄工作。他們只要將用戶上傳的收據(jù)掃描,把照片發(fā)布到亞馬遜的眾包平臺(tái)上,那里的工作人員便會(huì)將其手動(dòng)抄錄下來(lái)。而且,這些人的薪水便宜得很。

“不知道Expensify的用戶明不明白真相呢?我現(xiàn)在正在看著某人的Uber發(fā)票,上面寫著他的全名,以及出發(fā)地、目的地的地址”,接到活兒的羅謝爾·拉普朗特(Rochelle LaPlante)說(shuō)道,他本人對(duì)這種“滿口謊言”的公司很是反感,現(xiàn)在根本不想用他們的產(chǎn)品。他透露,其實(shí)很多同行都有不同程度的抵觸情緒,“我們感覺(jué)自己被丟到幕后,勞動(dòng)成果還被用來(lái)欺騙其他消費(fèi)者。”

裝成翹楚好賺錢

隨后,《衛(wèi)報(bào)》分析了這些科技企業(yè)對(duì)“偽人工智能”趨之若鶩的原因。

首先便是裝成行業(yè)佼佼者,吸引關(guān)注和投資,“這是他們不會(huì)告訴投資者和用戶的秘密”。這其中又分兩種情況。一種是讓人類來(lái)協(xié)助已有的人工智能,比如牽涉到谷歌郵箱泄密的那些第三方App,再比如,美國(guó)有家叫Scale API的公司,雇了一大堆人幫自己的自動(dòng)駕駛汽車校準(zhǔn)傳感器。

再有便是對(duì)外假稱是AI技術(shù),然后偷偷用人工代替,直到真的開(kāi)發(fā)出這個(gè)AI之前,能混一天算一天。報(bào)道稱,真人雖然速度又慢,又不能批量處理任務(wù),但畢竟便宜啊。

有趣的是,早在2016年,一家交互設(shè)計(jì)工具網(wǎng)站Readme的老板格里高利·科貝格(Gregory Koberger)便在推特上用玩笑的口吻曝光了這個(gè)黑幕。

 

點(diǎn)擊查看大圖

 

點(diǎn)擊查看大圖

推特截圖

13日,《華爾街日?qǐng)?bào)》再次評(píng)論了“偽人工智能”現(xiàn)象,稱其為“機(jī)器學(xué)習(xí)”熱潮和“零工經(jīng)濟(jì)”相結(jié)合的產(chǎn)物。

真人扮AI不道德?AI扮真人更不道德

此外,《衛(wèi)報(bào)》認(rèn)為還有一個(gè)不那么“功利”的原因。心理學(xué)家發(fā)現(xiàn),當(dāng)用戶以為自己面對(duì)的是機(jī)器人時(shí),會(huì)更容易放下戒備。一旦涉及敏感話題,這種情況就更加明顯。

再說(shuō)回谷歌郵件事件,如果大家聽(tīng)說(shuō)郵件只是被機(jī)器人偷看了,抵觸情緒定然會(huì)比得知真相后小得多。

類似情形還存在于醫(yī)療問(wèn)診中、來(lái)自南加大的研究團(tuán)隊(duì)用他們開(kāi)發(fā)的虛擬心理治療師艾莉(Ellie)做了一番測(cè)試。他們發(fā)現(xiàn),患有創(chuàng)傷后應(yīng)激障礙的退伍軍人只要發(fā)現(xiàn)艾莉是個(gè)AI,就老是會(huì)發(fā)病。

不過(guò),這也引發(fā)了其他專家的擔(dān)憂。“這設(shè)計(jì)很綠野仙蹤呢”,心理學(xué)家、心理健康聊天機(jī)器人Woebot的創(chuàng)始人艾莉森·達(dá)西(Alison Darcy)道,“作為心理學(xué)家,我們需要遵循道德準(zhǔn)則,不欺騙別人顯然應(yīng)該是準(zhǔn)則之一。”

(觀察者網(wǎng)注:《綠野仙蹤》的主角團(tuán)隊(duì)里,除了善良的小姑娘多諾茜,還有沒(méi)腦子的稻草人、沒(méi)愛(ài)心的鐵皮人和膽小的獅子——都不是人。)

 

點(diǎn)擊查看大圖

 

點(diǎn)擊查看大圖

《綠野仙蹤》里的鐵皮人 圖源:《華爾街日?qǐng)?bào)》

確實(shí)掌握AI技術(shù)的谷歌,也在早前意識(shí)到了這個(gè)倫理難題。而他們的解決方案是:

讓AI假裝自己是人類。

谷歌在5月初宣布,“谷歌助手”(Google Assistant)的新功能Google Duplex會(huì)在打電話時(shí)加入“嗯”、“呃”之類擬人的象聲詞。但這一改動(dòng)迅速遭到強(qiáng)烈反對(duì),用戶紛紛表示“這豈不騙得更厲害了”。

達(dá)西也對(duì)當(dāng)時(shí)的設(shè)計(jì)很不滿,“萬(wàn)一AI能模仿名人或政客的聲音,打出真假難辨的電話,那還得了?”

于是,谷歌隨后又做了改動(dòng),讓Google Duplex在對(duì)話一開(kāi)始就自報(bào)機(jī)器人身份,加強(qiáng)AI技術(shù)“透明度”。

鏈接已復(fù)制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號(hào)-6京公網(wǎng)安備 11010502049343號(hào)