“使用人工完成某些工作可以讓公司不用應(yīng)付大量的技術(shù)和業(yè)務(wù)開發(fā)挑戰(zhàn)。很明顯,這么做不具有規(guī)模性,但你確實可以在一開始直接越過很多困難的部分,”ReadMe的首席執(zhí)行官Gregory Koberger說,他說他遇到了很多“偽人工智能”。
《華爾街日報》(Wall Street Journal)本周發(fā)表的一篇文章將此類事件推到了了風(fēng)口浪尖,文中著重介紹了谷歌對數(shù)百名第三方應(yīng)用程序開發(fā)人員訪問人們的郵箱大開綠燈。
總部位于圣何塞的Edison Software公司,其人工智能工程師對數(shù)百名用戶的個人電子郵件信息進行了修改,修改了他們的身份,以改進“智能回復(fù)”功能。但并未提及這一行為是否侵犯了用戶的隱私權(quán)。
《華爾街日報》刊載的文章中還強調(diào),此種針對郵箱信息的行為遠非第一次。2008年,將語音郵件轉(zhuǎn)換為短信的Spinvox公司被指控在海外呼叫中心使用人類而不是機器來完成工作。
2016年,《彭博商業(yè)周刊》揭露了有些公司雇人每天花12個小時假裝聊天機器人或者智能助手,為客戶進行日程安排等服務(wù)。這是一份令人麻木而疲憊的工作,員工們紛紛表示他們真的期待有機器人頂替自己的位置。
2017年,企業(yè)費用管理程序提供商Expensify公司承認(rèn),它此前聲稱的使用“Smart Scan”技術(shù)的收據(jù)處理工作,至少有一部分是人工完成的。這些收據(jù)的掃描結(jié)果被發(fā)給了亞馬遜的Mechanical Turk公司,在這家公司的眾包勞動工具上,這些收據(jù)其實是由低薪酬雇來的員工們處理并謄寫的。
“我想知道,那些使用了Expensify公司Smart Scan產(chǎn)品的用戶是否知道它們的數(shù)據(jù)是由MTurk的員工輸入的,”Rochelle LaPlante說,他正是一個Turk公司的一員,“我可以查看某個人的優(yōu)步收據(jù),上面有他們的全名和接送地址。”
就連在人工智能領(lǐng)域投入巨資的Facebook,也依賴“偽人工智能”的服務(wù)。
在某些情況下,人類被用來訓(xùn)練人工智能系統(tǒng)并提高它的準(zhǔn)確性。一家名為Scale的公司為一群人類員工提供了自動駕駛汽車和其他人工智能驅(qū)動系統(tǒng)的培訓(xùn)數(shù)據(jù)。例如,人工智能訓(xùn)練人員會查看攝像頭或傳感器,并標(biāo)注汽車、行人和騎自行車的人。有了足夠的人工校準(zhǔn),人工智能將學(xué)會識別這些物體本身。
但在其他情況下,公司會謊稱自己已經(jīng)在使用人工智能了,然后告訴投資者和用戶說自己已經(jīng)開發(fā)出了便利的人工智能服務(wù),但私下里卻在秘密地依賴真人。
Gregory Koberger(@gkoberger)
如建立一個人工智能創(chuàng)業(yè)公司?
首先,雇傭一批廉價勞動力,讓他們假裝自己是人工智能,然后為客戶提供服務(wù);
其次,等著人工智能真的被發(fā)明出來。
March 1, 2016
心理學(xué)家、Woebot(一種旨在解決人們心理健康問題的聊天機器人)的創(chuàng)始人Alison Darcy將其稱為為“奧茲國設(shè)計技術(shù)的巫師”。
“說實話,很多時候你以為是人工智能,但其實屏幕的那一邊是個真實存在的人,而不是什么算法,”她補充說,要想建立起良好的人工智能系統(tǒng),“大量的數(shù)據(jù)”不可或缺,而很多時候設(shè)計師們在投資之前,會想知道是否有足夠的服務(wù)需求。
她說,這種方法不適用于像Woebot這樣的心理服務(wù)。
“作為心理學(xué)家,我們受到道德準(zhǔn)則的約束。而不欺騙是很明顯的道德準(zhǔn)則之一。”
研究表明,當(dāng)人們認(rèn)為自己是在和機器交談而不是與人交談時,他們往往會透露更多信息,因為尋求心理健康幫助會帶來一種恥辱感。
來自南加利福尼亞大學(xué)(University of Southern California)的一個研究小組通過一個名為Ellie的虛擬治療師測試了這個結(jié)果。他們發(fā)現(xiàn),當(dāng)退伍軍人知道Ellie是人工智能系統(tǒng)時,他們更容易打開心扉,說出自己的癥狀。
另一些人則認(rèn)為,公司應(yīng)該對其服務(wù)的運作方式始終保持透明。
一家用人工假裝人工智能提供服務(wù)的公司的員工LaPlante說:“我不喜歡這樣,對我來說,這是不誠實的。而且就工作方面講,我們感覺自己被雪藏了起來。自己的價值并沒有得到重視。我不喜歡我的勞動被這種對客戶滿口謊言的公司利用。”
其實,在人工智能自己是人類并提供服務(wù)的時候,同樣引發(fā)了這種道德上的困惑。最典型的例子莫過于例子是谷歌的這是一個機器人助手Duplex,它可以用“嗯”和“呃”等詞句來完成極其逼真的對話和預(yù)約。
經(jīng)歷了強烈反對之后,谷歌表示自己的人工智能助手會向交談過的人類表明自己的真實身份。
Darcy說:“在這種低影響的對話中,你可能會覺得這么點兒小花招無傷大雅。”
但是,如果這種瞞天過海的技術(shù)被一些別有用心的人用來做一些違法亂紀(jì)的事情呢?
Darcy說:“考慮到人工智能已經(jīng)讓人產(chǎn)生了很大的恐懼,在缺乏透明度的情況下,它更不能真正幫助人們進行對話了。”