人工智能,難道是人工假扮……

責(zé)任編輯:zsheng

2018-07-22 08:25:31

摘自:信息時(shí)報(bào)

外媒稱,很多號(hào)稱“人工智能”的高科技,竟然是真人手動(dòng)操作的

外媒稱,很多號(hào)稱“人工智能”的高科技,竟然是真人手動(dòng)操作的

 

 

交互設(shè)計(jì)工具網(wǎng)站Readme的老板格里高利·科貝格。

 

 

心理健康聊天機(jī)器人Woebot的創(chuàng)始人艾莉森·達(dá)西。

 

 

患者正在接受虛擬心理治療師艾莉(Ellie)的輔導(dǎo)。

 

 

▲“智能掃描技術(shù)”(SmartScan)號(hào)稱能夠智能掃描出文字。

 

 

 

 

一些APP號(hào)稱可以將語(yǔ)音轉(zhuǎn)化成文字,結(jié)果卻是人工操作。

(上接B01版)

分析

為何對(duì)“偽人工智能”趨之若鶩?

隨后,《衛(wèi)報(bào)》分析了這些科技企業(yè)對(duì)“偽人工智能”趨之若鶩的原因。

吸引關(guān)注和投資

首先便是裝成行業(yè)佼佼者,吸引關(guān)注和投資,“這是他們不會(huì)告訴投資者和用戶的秘密”。這其中又分兩種情況。一種是讓人類來(lái)協(xié)助已有的人工智能,比如牽涉到谷歌郵箱泄密的那些第三方App,再比如,美國(guó)有家叫Scale API的公司,雇了一大堆人幫自己的自動(dòng)駕駛汽車校準(zhǔn)傳感器。

再有便是對(duì)外假稱是AI技術(shù),然后偷偷用人工代替,直到真的開發(fā)出這個(gè)AI之前,能混一天算一天。報(bào)道稱,真人雖然速度又慢,又不能批量處理任務(wù),但畢竟便宜啊。

有趣的是,早在2016年,一家交互設(shè)計(jì)工具網(wǎng)站Readme的老板格里高利·科貝格便在推特上用玩笑的口吻曝光了這個(gè)黑幕。他說:

“如何創(chuàng)辦一家AI公司?

1.雇傭一批人類假裝AI,他們的工資能多低就多低。

2.坐等AI被開發(fā)出來(lái)。”

模擬AI的最終體驗(yàn)

心理學(xué)家、心理健康聊天機(jī)器人Woebot的創(chuàng)始人艾莉森·達(dá)西表示,“你模擬它最終的體驗(yàn)。很多時(shí)候,在人工智能背后,其實(shí)是有真人在背后,而不是一個(gè)算法。”

艾莉森·達(dá)西說,開發(fā)一個(gè)好的AI系統(tǒng)需要“大量的數(shù)據(jù)”,一些設(shè)計(jì)師想在投資之前知道他們開發(fā)的服務(wù)是否有足夠大的需求。

不過,她說,這種方法不適合像Woebot這樣的心理支持服務(wù)。“作為心理學(xué)家,我們需要遵循道德準(zhǔn)則,不欺騙別人顯然應(yīng)該是準(zhǔn)則之一。”

《華爾街日?qǐng)?bào)》13日再次評(píng)論了“偽人工智能”現(xiàn)象,稱其為“機(jī)器學(xué)習(xí)”熱潮和“零工經(jīng)濟(jì)”相結(jié)合的產(chǎn)物。

難題

如何加強(qiáng)AI技術(shù)“透明度”?

此外,《衛(wèi)報(bào)》認(rèn)為還有一個(gè)不那么“功利”的原因。心理學(xué)家發(fā)現(xiàn),當(dāng)用戶以為自己面對(duì)的是機(jī)器人時(shí),會(huì)更容易放下戒備。一旦涉及敏感話題,這種情況就更加明顯。

再說回谷歌郵件事件,如果大家聽說郵件只是被機(jī)器人偷看了,抵觸情緒定然會(huì)比得知真相后小得多。

對(duì)AI更容易放下戒備

類似情形還存在于醫(yī)療問診中、來(lái)自南加大的研究團(tuán)隊(duì)用他們開發(fā)的虛擬心理治療師艾莉(Ellie)做了一番測(cè)試。他們發(fā)現(xiàn),患有創(chuàng)傷后應(yīng)激障礙的退伍軍人知道艾莉是個(gè)AI系統(tǒng)時(shí),他們更容易表露自己的癥狀,假如他們得知是真人在背后操作機(jī)器,就沒那么容易了。

但是有些人認(rèn)為,公司應(yīng)該始終對(duì)自己的服務(wù)運(yùn)營(yíng)方式保持透明。

“我不喜歡這樣。這對(duì)我來(lái)說是不誠(chéng)實(shí),是欺騙。”一位被雇傭去假裝提供人工智能服務(wù)的員工透露,其實(shí)很多同行都有不同程度的抵觸情緒。“感覺我們被推到了幕后。我不喜歡一家公司使用我的勞動(dòng)力,轉(zhuǎn)而向客戶撒謊,不告訴他們真正發(fā)生的事情。”

讓AI假裝自己是人類

確實(shí)掌握AI技術(shù)的谷歌,也在早前意識(shí)到了這個(gè)倫理難題。而他們的解決方案是:讓AI假裝自己是人類。

谷歌在5月初宣布,“谷歌助手”(Google Assistant)的新功能Google Duplex會(huì)在打電話時(shí)加入“嗯”、“呃”之類擬人的象聲詞。但這一改動(dòng)迅速遭到強(qiáng)烈反對(duì),用戶紛紛表示“這豈不騙得更厲害了”。

達(dá)西也對(duì)當(dāng)時(shí)的設(shè)計(jì)很不滿,“萬(wàn)一AI能模仿名人或政客的聲音,打出真假難辨的電話,那還得了?”

于是,谷歌隨后又做了改動(dòng),讓Google Duplex在對(duì)話一開始就自報(bào)機(jī)器人身份,加強(qiáng)AI技術(shù)“透明度”。

但達(dá)西指出,“人工智能已經(jīng)讓人產(chǎn)生了很大的恐懼,在缺乏透明度的情況下,它并不能真正幫助人們進(jìn)行對(duì)話。”

鏈接已復(fù)制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號(hào)-6京公網(wǎng)安備 11010502049343號(hào)