確保人工智能不作惡,谷歌為AI再上“緊箍咒”

責(zé)任編輯:zsheng

2018-11-15 18:05:42

摘自:新智元

谷歌認為,比起殺人AI機器人,我們更該擔(dān)心的是AI偏見問題。谷歌提出AI技術(shù)開發(fā)的道德準則,成立了專門的機器學(xué)習(xí)道德部門,對公司的產(chǎn)品和服務(wù)進行分析測試,提出改進意見,盡可能避免AI偏見的產(chǎn)生。

谷歌認為,比起殺人AI機器人,我們更該擔(dān)心的是AI偏見問題。谷歌提出AI技術(shù)開發(fā)的道德準則,成立了專門的機器學(xué)習(xí)道德部門,對公司的產(chǎn)品和服務(wù)進行分析測試,提出改進意見,盡可能避免AI偏見的產(chǎn)生。

在去年舉行的谷歌會議上,谷歌當時的人工智能(AI)負責(zé)人John Giannandrea表示,我們不需要擔(dān)心殺手機器人,相反,我們需要擔(dān)心的是AI偏見。

“如果要說真正的安全問題,那就是如果我們給這些系統(tǒng)提供有偏見的數(shù)據(jù),那么生成的AI模型就會有偏見。”他說。

這是谷歌過去一直在努力解決的問題。2015年6月,谷歌照片應(yīng)用的算法曾經(jīng)錯誤地將黑人分類為“大猩猩”,引發(fā)了軒然大波。因此,從IBM到Airbnb,每家公司都在努力確保自己算法不會出現(xiàn)類似的偏差。

最近一段時間,谷歌為解決AI偏見又上了緊箍咒。

對于谷歌機器學(xué)習(xí)道德、信任和安全主管Jen Gennai來說,防止出現(xiàn)數(shù)據(jù)和AI偏見實際上就是他的工作內(nèi)容。Gennai負責(zé)領(lǐng)導(dǎo)一個跨公司的團隊,對谷歌的新產(chǎn)品和服務(wù)進行分析和咨詢,以確保所有新產(chǎn)品都遵守這一道德標準。

“如果我們要打造一項新技術(shù),我們需要確保它從一開始就走在正確的軌道上。”她說。

谷歌制定AI技術(shù)開發(fā)七大準則

今年6月,Google首席執(zhí)行官Sundar Pichai發(fā)布了該公司的人工智能原則,指導(dǎo)谷歌在這些方面的工作和研究,包括確保Google員工不會制造或加強不公平的AI偏見。

Pichai表示,AI的開發(fā)和使用將在未來許多年內(nèi)對社會產(chǎn)生重大影響。作為AI的領(lǐng)導(dǎo)者,我們感到自己有責(zé)任做到這一點。

這種關(guān)于人AI技術(shù)的新立場是受到谷歌出現(xiàn)問題的影響而提出的。除了“大猩猩”事件之外,哈佛大學(xué)研究人員Latanya Sweeney發(fā)現(xiàn)谷歌搜索中的存在種族歧視。當搜索類似黑人名字時,會比搜索類似白人名字更有可能出現(xiàn)與“被逮捕”相關(guān)的廣告。

“這些現(xiàn)象都是我們的部門成立的原因,不應(yīng)該讓我們的用戶看到這些,我們需要首先阻止這些偏見的產(chǎn)生。”Gennai說。

現(xiàn)在每當谷歌推出新產(chǎn)品時,都會接受Gennai及其團隊的嚴格測試。來自技術(shù)、法律、隱私和社會科學(xué)等領(lǐng)域的專家聚集在一起,根據(jù)谷歌制定的AI準則對每個產(chǎn)品進行分析。

這種測試主要是找出產(chǎn)品的優(yōu)缺點。“我們并不是公司里可怕的監(jiān)工。”Gennai說。“我們想的是,希望公司能推出最好的產(chǎn)品,所以我們要找出所有可能出錯的漏洞,以便解決問題。

在谷歌智能助理給真人打電話的功能上,產(chǎn)品團隊事先就AI如何處理不同口音做了大量工作,但Gennai的測試團隊提出了一些其他問題。

“我們研究了用戶如何與之互動,如何利用技術(shù)降低AI的偏見。我們提出了問題,要如何判斷用戶是不是有口吃或語言障礙。產(chǎn)品開發(fā)團隊做了很多工作,但我們試圖縮小所有差距,提升產(chǎn)品表現(xiàn)。”她說。

改善AI偏見的一種方法是改進數(shù)據(jù)集。 Gennai舉了一個婚禮的例子。

過去,如果你在Google圖片上搜索“婚禮”,得到的結(jié)果是白人穿著婚禮禮服的照片,因為算法是在基于西方人的數(shù)據(jù)源上進行訓(xùn)練的。然而,這對印度或中國的谷歌用戶就不合適。谷歌要求人們提交世界各地的婚禮照片,以改善數(shù)據(jù)集。

“現(xiàn)在,我們得到了印度用戶的大量反饋,他們向我們發(fā)送了許多色彩繽紛的婚禮照片,”我們希望了解我們現(xiàn)有資源,創(chuàng)建偏見相對較小的新資源。”

讓用戶也能理解算法

了解谷歌算法的內(nèi)部工作流程,有助于團隊更好地進行修改。比如用谷歌搜索“CEO”時出現(xiàn)的問題,當你在搜索欄中鍵入“CEO”時,你會看到一些穿著西裝打著領(lǐng)帶的白人男子的圖片。

Gennai的團隊調(diào)查數(shù)據(jù)時發(fā)現(xiàn),這個現(xiàn)象往往并不是人為偏見,而是技術(shù)上的偏見。

“在算法看來,海軍藍像素就等于CEO,而且因為白人男性更容易穿藍色西裝,所以這純粹是模型學(xué)習(xí)的方式問題。但這表明我們需要仔細檢查數(shù)據(jù)。

讓谷歌用戶了解公司算法的運作方式也是很重要的。谷歌用戶現(xiàn)在可以查看為你投放廣告的原因,并查看由算法做出的決定。用戶還可以查看為何會在谷歌搜索結(jié)果中看到某個鏈接,具體取決于用戶之前的搜索記錄。 Gennai表示,這是為了幫助用戶更多地了解谷歌,以便他們可以信任谷歌搜索。

透明度也是谷歌AI原則的一部分。但是“與用戶共享一個完整的算法根本沒有用,反而可能會引起更多的混淆,并感覺我們是故意混淆。但是,用用戶可讀的語言解釋算法,將有助于人們了解谷歌正在嘗試做的事情,即使我們做錯了。”Gennai說。

解決AI偏見,光靠谷歌不夠

說到最后,偏見的根源其實還是來自人類。“我們每個人都有偏見,我們現(xiàn)有的全部數(shù)據(jù)源,都是建立在我們每個人和過去的歷史偏見之上。”

但是,僅僅因為這一點,并不能說我們無法阻止偏見。相反,谷歌試圖盡可能調(diào)查和解釋最大的偏見來源,并嘗試改變。

從這個角度看,谷歌的AI準則在公司內(nèi)部非常重要,也是因為這個原因,谷歌為公司外的人創(chuàng)建了“負責(zé)任的AI”開發(fā)實踐項目,這些人正在使用其開源軟件來構(gòu)建人工智能和機器學(xué)習(xí)算法。

“我們希望能夠以身作則,提供相關(guān)工具和知識,讓更多的人能夠遵循這些準則。”她說。

鏈接已復(fù)制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號-6京公網(wǎng)安備 11010502049343號