人工智能(AI)可能是數(shù)字時代最具顛覆性的技術(shù),因為企業(yè)正在研究如何利用機(jī)器學(xué)習(xí)(ML)和其它人工智能工具來挖掘客戶洞察,發(fā)現(xiàn)人才和保護(hù)企業(yè)網(wǎng)絡(luò)。雖然IT部門可以快速推出大量技術(shù)并從中受益,但有證據(jù)表明,首席信息官在實施人工智能時應(yīng)該格外小心,包括采用涉及到濃厚道德因素的技術(shù)。
為什么呢?因為人工智能頗受偏見問題的困擾。有這樣一個例子,亞馬遜廢棄了一個招聘工具,因為它未能對從事軟件開發(fā)工作和其它崗位的女性做出公正的評價。還有一個例子,麻省理工學(xué)院和多倫多大學(xué)的研究人員發(fā)現(xiàn),亞馬遜的面部識別軟件將女性(尤其是皮膚黝黑的女性)誤認(rèn)為男性。
人工智能中存在很多偏見
亞馬遜并不是唯一的例子,因為人工智能問題已經(jīng)出現(xiàn)在其它公司和其它高風(fēng)險領(lǐng)域。臉書的程序經(jīng)理在測試公司的Portal視頻聊天設(shè)備時遇到了算法歧視。ProPublica表明,美國各地用來預(yù)測未來罪犯的軟件對非洲裔美國人存在偏見。加州大學(xué)伯克利分校對金融科技所做的研究發(fā)現(xiàn),拉丁美洲和/或非洲裔美國人在使用了面對面決策和算法的抵押貸款中要支付更高的利息。
同樣值得關(guān)注的是與邊緣情況有關(guān)的歧視,這種偏見十分隱秘。在“替代性歧視”中,郵政編碼可能會成為種族的替代品;詞語的選擇則可能成為性別的替代品;如果你加入一個討論基因突變的臉書小組,那么你的健康保險成本很可能會增加,即便這樣的信號尚未明確編入算法中。
很明顯,人工智能受到能對物理世界產(chǎn)生影響的數(shù)字化偏見的困擾。畢竟,算法是“人類設(shè)計的產(chǎn)物”,它繼承了人類的偏見,紐約大學(xué)AI Now研究所的聯(lián)合創(chuàng)始人Kate Crawford這樣說道。IEEE Spectrum稱,這種偏見可以持續(xù)數(shù)十年。
因此,IT領(lǐng)導(dǎo)者越來越關(guān)注“可解釋的”人工智能。他們渴望得到能明確表達(dá)結(jié)果的算法,這些算法在理想情況下能滿足監(jiān)管機(jī)構(gòu)和企業(yè)高管的需求。但由于存在固有的偏見,也許他們真正需要的是“文明人工智能”,或者完全不偏不倚地運(yùn)作的算法。
使用倫理學(xué)消除人工智能偏見:六個建議
隨著首席信息官加快對人工智能的采用,采取小心謹(jǐn)慎的方法至關(guān)重要。Gartner于2019年對3,000名首席信息官所做的調(diào)查顯示,采用人工智能的企業(yè)數(shù)量從4年前的10%上升至37%。短期內(nèi),公司應(yīng)該嘗試基于其對人工智能的使用制定道德規(guī)范。德勤、簡柏特(Genpact)和峽灣(Fjord)的專家討論了企業(yè)應(yīng)該如何合理地推進(jìn)人工智能的部署。
董事會和利益相關(guān)者都參與進(jìn)來
由于與人工智能相關(guān)的道德問題可能對公司的聲譽(yù)、財務(wù)和戰(zhàn)略帶來巨大且長期的風(fēng)險,因此首席信息官應(yīng)與董事會合作,以減輕與人工智能相關(guān)的風(fēng)險,德勤美國的創(chuàng)新團(tuán)隊的董事總經(jīng)理David Schatsky如是說。如果要將道德規(guī)范融入人工智能,首先要確定這對利益相關(guān)者(包括客戶、員工、監(jiān)管機(jī)構(gòu)和公眾)有何重大意義。Schatsky說:“組織必須參與其中并公開利益相關(guān)者的身份。”
成立“數(shù)字倫理”小組委員會
董事會已經(jīng)有審計委員會,風(fēng)險委員會和技術(shù)委員會,但現(xiàn)在也許該增加一個致力于人工智能事務(wù)的委員會,為企業(yè)設(shè)計和實施各種技術(shù)的簡柏特的首席數(shù)字官Sanjay Srivastava如是說。這樣一個“數(shù)字倫理”委員會必須由跨職能領(lǐng)導(dǎo)者組成,因為他們可以與利益相關(guān)者合作,從而幫忙設(shè)計和管理人工智能解決方案。該委員會還必須熟悉與人工智能相關(guān)的法規(guī)。在接受簡柏特調(diào)研的公司中,95%表示,它們希望為消除人工智能偏見而努力,但只有34%采取了治理和控制措施。Srivastava說:“我們建議客戶盡快行動。他們雖然有這樣的意識,也明白其中的道理,但他們沒有實施治理和控制。”
利用設(shè)計思維
埃森哲峽灣設(shè)計咨詢公司的董事總經(jīng)理Shelley Evenson表示,無論公司是在內(nèi)部創(chuàng)建人工智能還是購買商業(yè)工具,它們都應(yīng)該使用設(shè)計思維來打造解決方案,因為這有助于解決算法中可能存在的偏差。雖然使用天氣和社交媒體方面的征兆來預(yù)測銷量或產(chǎn)品需求的內(nèi)部應(yīng)用程序沒什么危害,至少沒有那些能對員工和客戶產(chǎn)生直接影響的征兆危害那么大,為設(shè)計技術(shù)的過程著想是一個很好的方法。
利用技術(shù)消除偏見
企業(yè)人工智能開發(fā)人員還必須接受培訓(xùn),以測試和修復(fù)無意中將夾帶了偏見的系統(tǒng),這些偏見使用戶或其他受影響的各方受到不公平的待遇。公司還可以利用各種工具來檢測數(shù)據(jù)變量與敏感變量(如年齡、性別或種族)相關(guān)聯(lián)的工具,以及評估和解釋機(jī)器學(xué)習(xí)算法是如何生成輸出結(jié)果的方法。例如,Srivistava表示公司可以將數(shù)字“面包屑”插入算法中,從而跟蹤決策過程。
對人工智能的使用保持透明
只要對人工智能的使用持公開透明的態(tài)度,公司就可以與利益相關(guān)者建立互信的關(guān)系。例如,Schatsky說,智能體應(yīng)該將自身當(dāng)成人類,不是偽裝成人類(如今很多聊天機(jī)器人仍在模仿人類)。公司還應(yīng)披露對客戶造成影響的自動決策系統(tǒng)的使用。在可能的情況下,公司應(yīng)該清楚地對這一切做出解釋:它們收集哪些數(shù)據(jù),他們使用這些數(shù)據(jù)來干什么,以及這些用法會對客戶形成怎樣的影響?。
緩解員工對失業(yè)的焦慮
人工智能將在多大程度上引發(fā)失業(yè)或改變工作,這目前尚不清楚,但公司應(yīng)該開始對員工展開教育,讓他們知道自己的工作可能會發(fā)生怎樣的變化,并建議他們采取各種提升技能的方法,從而與時俱進(jìn)。這包括對工人進(jìn)行再培訓(xùn),因為他們的所做的事情將被自動化——或給他們時間尋找新的工作。例如,由于機(jī)器人過程自動化(RPA)漸漸開始處理低級的任務(wù),保險公司State Auto正在訓(xùn)練員工處理更復(fù)雜的理賠工作。
最重要的因素
Schatsky說,這一切都不容易,主要是因為人們沒有在某些情況下或與某些利益相關(guān)者就道德標(biāo)準(zhǔn)達(dá)成充分的共識。Schatsky說,無論采用何種方法,企業(yè)要采取行動而不是“等待人工智能相關(guān)法規(guī)出臺”,這才是明智之舉。
政府正朝著這個方向努力。歐盟委員會于4月就組織應(yīng)如何開發(fā)人工智能(AI)的道德應(yīng)用發(fā)布了一系列指導(dǎo)方針。兩天后,美國政府提出了《2019年的算法責(zé)任法案(Algorithmic Accountability Act)》,以處理高風(fēng)險的人工智能系統(tǒng),例如能根據(jù)敏感的個人數(shù)據(jù)檢測人臉或做出重要決策的技術(shù)。
無論監(jiān)管在未來會是什么樣子,首席信息官尚有時間來解決問題。目前,由于數(shù)據(jù)匱乏,而且數(shù)據(jù)質(zhì)量有問題,企業(yè)人工智能的采用受到阻礙;機(jī)器學(xué)習(xí)建模師、數(shù)據(jù)科學(xué)家和其它領(lǐng)域的人工智能專家十分稀缺;結(jié)果十分不確定;當(dāng)然,O’Reilly的一項調(diào)查指出,還有各種道德問題和偏見。
O'Reilly發(fā)現(xiàn),金融服務(wù)、醫(yī)療和教育部門占采用人工智能的企業(yè)的58%,而電信、媒體以及娛樂業(yè)、政府機(jī)構(gòu)、制造業(yè)和零售企業(yè)各占4%。