隨著人工智能的應(yīng)用越來(lái)越普遍,越來(lái)越多的IT領(lǐng)導(dǎo)者開(kāi)始關(guān)注人工智能的道德含義。事實(shí)上,由SnapLogic公司贊助,由Vanson Bourne公司進(jìn)行的2019年調(diào)查報(bào)告發(fā)現(xiàn),在接受調(diào)查的1000名美國(guó)和英國(guó)IT決策者中, 94%的受訪(fǎng)者認(rèn)為人們應(yīng)該更加關(guān)注人工智能開(kāi)發(fā)中的企業(yè)責(zé)任和道德規(guī)范。
人們?yōu)榇烁械綋?dān)憂(yōu)是有理由的。一些著名的科技公司已經(jīng)卷入相關(guān)丑聞,因?yàn)樗麄儎?chuàng)建的人工智能系統(tǒng)沒(méi)有按預(yù)期行事。例如,在2015年,很多用戶(hù)抱怨谷歌公司的圖像識(shí)別軟件將黑人標(biāo)記為“大猩猩”,雖然這家科技巨頭承諾要解決這個(gè)問(wèn)題,但在三年之后,谷歌公司提供的唯一解決方案就是取消人工智能識(shí)別大猩猩的能力。而微軟公司的基于人工智能的Twitterbot-tay上在使用了幾個(gè)小時(shí)后,就變成了種族主義者,這讓微軟公司不得不取消了這個(gè)業(yè)務(wù)。
此外據(jù)悉,舊金山日前成為美國(guó)第一個(gè)禁止市場(chǎng)機(jī)構(gòu)使用面部識(shí)別軟件的主要城市,其部分原因是該技術(shù)存在潛在的偏見(jiàn)。幾個(gè)規(guī)模較小的城市已經(jīng)通過(guò)或正在考慮類(lèi)似的禁令。
雖然有關(guān)人工智能失誤的報(bào)道屢見(jiàn)不鮮,但許多人擔(dān)心,在沒(méi)有公眾知識(shí)的情況下,更普遍、更陰險(xiǎn)的人工智能犯罪可能發(fā)生在幕后??蛻?hù)可能永遠(yuǎn)不會(huì)知道他們是否因?yàn)榈赖律峡梢傻娜斯ぶ悄芩惴ǘ痪芙^貸款或面臨欺詐嫌疑。
紐約大學(xué)的AI Now研究所和美國(guó)南部浸禮會(huì)派這樣的組織都在呼吁開(kāi)發(fā)人工智能的公司讓其技術(shù)變得更加透明,并同意遵守相應(yīng)的道德原則。作為回應(yīng),包括谷歌公司和微軟公司在內(nèi)的一些企業(yè)已經(jīng)發(fā)布了有關(guān)人工智能使用的內(nèi)部指南。
然而,許多人認(rèn)為這還遠(yuǎn)遠(yuǎn)不夠。相反,他們希望政府機(jī)構(gòu)參與并頒布法規(guī)。在Vanson Bourne公司的研究中,87%的商業(yè)IT領(lǐng)導(dǎo)者表示應(yīng)該對(duì)人工智能開(kāi)發(fā)進(jìn)行監(jiān)管。
IT領(lǐng)導(dǎo)者具有這種愿望的部分原因是,在缺乏相關(guān)法律的情況下,企業(yè)沒(méi)有辦法知道他們是否做了足夠的工作來(lái)確保其開(kāi)發(fā)的人工智能是合乎道德的。監(jiān)管法律可能使他們有能力向客戶(hù)保證人工智能的應(yīng)用,因?yàn)榭梢员硎舅麄冏袷亓怂邢嚓P(guān)法律。如果沒(méi)有這些法律,獲得和保持客戶(hù)信任可能會(huì)更加困難。
但即使沒(méi)有監(jiān)管法律,企業(yè)也可以而且應(yīng)該采取措施確保他們使用人工智能是道德的。以下提供了企業(yè)可以改善其在人工智能方面的道德立場(chǎng)采取的9項(xiàng)措施:
1.遵守法規(guī)
組織至少需要確保其人工智能應(yīng)用程序符合數(shù)據(jù)隱私法規(guī)。大多數(shù)人工智能軟件(尤其是機(jī)器學(xué)習(xí))都依賴(lài)于大量的數(shù)據(jù)來(lái)進(jìn)行操作,企業(yè)有責(zé)任確保他們對(duì)這些數(shù)據(jù)的處理符合相關(guān)法律。在美國(guó),組織可能需要遵守健康保險(xiǎn)便攜性和責(zé)任法案(HIPAA)、兒童在線(xiàn)隱私保護(hù)法案(COPPA)或其他聯(lián)邦或州法律。
如果組織在歐洲擁有客戶(hù)或員工,他們還必須遵守歐盟的通用數(shù)據(jù)保護(hù)法規(guī)(GDPR)。除其他事項(xiàng)外,這項(xiàng)全面的立法要求組織盡可能以最短的時(shí)間存儲(chǔ)數(shù)據(jù),并為個(gè)人提供查看和刪除其個(gè)人數(shù)據(jù)的方法。就人工智能而言,最重要的是,GDPR法規(guī)還指出,“個(gè)人不應(yīng)僅僅依據(jù)自動(dòng)處理(例如算法)做出決定,而且具有法律約束力或?qū)ζ洚a(chǎn)生重大影響。”
2. 遵守?cái)?shù)據(jù)科學(xué)最佳實(shí)踐
除了遵守政府部門(mén)的規(guī)定外,組織還應(yīng)該提供數(shù)據(jù)科學(xué)最佳實(shí)踐。Forrester公司在其名為“人工智能的倫理:如何避免有害的偏見(jiàn)和歧視” 報(bào)告中建議,“為了防止模型中的算法偏見(jiàn),組織需要堅(jiān)持?jǐn)?shù)據(jù)挖掘的基本原則,確保組織培訓(xùn)數(shù)據(jù)代表其計(jì)劃使用模型的人群。”
還有一些人建議,數(shù)據(jù)科學(xué)家需要反復(fù)測(cè)試和驗(yàn)證他們的模型,并保持跟蹤數(shù)據(jù)沿襲的方法。雖然很少有企業(yè)高管了解機(jī)器學(xué)習(xí)的復(fù)雜性,但他們有義務(wù)確保他們的數(shù)據(jù)科學(xué)家遵守行業(yè)最佳實(shí)踐。
3.安全設(shè)計(jì)
幾十年來(lái),科幻作家一直在警告人工智能可能具有世界末日的危險(xiǎn)。如今人工智能變得越來(lái)越普遍,重要的是不要忽視人工智能傷害人類(lèi)的可能性,因?yàn)樗恢皇窃跁?shū)籍和電影中出現(xiàn)的事物。自動(dòng)駕駛汽車(chē)和基于人工智能的武器系統(tǒng)等相關(guān)應(yīng)用顯然會(huì)影響人類(lèi)的安全,設(shè)計(jì)師應(yīng)確保這些系統(tǒng)盡可能安全。雖然其他機(jī)器學(xué)習(xí)系統(tǒng)可能不會(huì)直接影響人類(lèi)的人身安全,但它們可能會(huì)對(duì)他們的隱私和在線(xiàn)安全產(chǎn)生重大影響。
4.使人工智能技術(shù)更加透明
企業(yè)在人工智能道德方面可以采取的最重要步驟之一是確保他們完全理解使用的任何人工智能系統(tǒng)的運(yùn)作。人工智能供應(yīng)商Kyndi公司首席執(zhí)行官Ryan Welsh在一次采訪(fǎng)中指出,“要發(fā)揮人工智能的全部潛力,信任至關(guān)重要。而信任來(lái)自人們的理解,并且能夠證明系統(tǒng)結(jié)論和結(jié)果背后的推理。人工智能不可能是一個(gè)黑盒,因?yàn)樗?jīng)常出現(xiàn)。要想讓人工智能蓬勃發(fā)展,就必須更加透明。”
AI Now研究所表示,“為了實(shí)現(xiàn)有意義的問(wèn)責(zé)制,我們需要更好地理解和跟蹤人工智能系統(tǒng)的組成部分及其所依賴(lài)的完整供應(yīng)鏈:這意味著要考慮培訓(xùn)數(shù)據(jù)、測(cè)試數(shù)據(jù)、模型的來(lái)源和使用、產(chǎn)品生命周期中的應(yīng)用程序接口(API)和其他基礎(chǔ)設(shè)施組件。”
5.清理數(shù)據(jù)
機(jī)器學(xué)習(xí)系統(tǒng)的行業(yè)與它們所依賴(lài)的數(shù)據(jù)一樣好。對(duì)于許多組織而言,數(shù)據(jù)質(zhì)量仍然是一個(gè)主要問(wèn)題。在最壞的情況下,糟糕的數(shù)據(jù)可能導(dǎo)致組織做出不準(zhǔn)確甚至道德上受到損害的決策。
另一方面,擁有準(zhǔn)確、最新的數(shù)據(jù)會(huì)增加人工智能應(yīng)用程序產(chǎn)生積極經(jīng)濟(jì)利益的可能性。Information Builders數(shù)據(jù)管理卓越中心的國(guó)際主管James Cotton在一次采訪(fǎng)中表示,“當(dāng)分析應(yīng)用于管理良好的數(shù)據(jù)時(shí),其回報(bào)要大得多??梢郧宄亓私饨M織擁有什么,來(lái)自何處以及如何使用它會(huì)帶來(lái)更大的回報(bào)。“
6.檢查模型是否存在偏差跡象
數(shù)據(jù)科學(xué)家不僅需要確保他們的數(shù)據(jù)是干凈的,而且他們還需要確保他們的數(shù)據(jù)和數(shù)據(jù)模型不包含任何偏差。這個(gè)問(wèn)題可能會(huì)以幾種不同的方式無(wú)意中進(jìn)入到機(jī)器學(xué)習(xí)模型中。
首先,組織可能有不完整的訓(xùn)練數(shù)據(jù)。例如,如果企業(yè)只使用歐洲面孔訓(xùn)練其面部識(shí)別系統(tǒng),那么當(dāng)系統(tǒng)難以識(shí)別非洲或亞洲面孔時(shí),人們不應(yīng)對(duì)此感到驚訝。
其次,許多數(shù)據(jù)集包括歷史偏差。例如,一些職業(yè)(例如護(hù)理或工程)在傳統(tǒng)上一直是由性別主導(dǎo)的。如果組織根據(jù)這些歷史數(shù)據(jù)訓(xùn)練基于人工智能的人力資源系統(tǒng)選擇面試候選人,可能會(huì)意外地出現(xiàn)偏見(jiàn),甚至可能觸犯反歧視法規(guī)。
7.監(jiān)控調(diào)查結(jié)果和反饋
而數(shù)據(jù)科學(xué)家通常表示,沒(méi)有數(shù)據(jù)模型是完美的。他們所能期望最好的情況就是隨著時(shí)間的推移而改進(jìn)。這意味著人類(lèi)需要監(jiān)控系統(tǒng)來(lái)尋找潛在的道德問(wèn)題。許多已發(fā)布人工智能指南的組織表示,所有人工智能技術(shù)都需要對(duì)人類(lèi)負(fù)責(zé)。但一些人卻表示,只是問(wèn)責(zé)是不夠的;人類(lèi)監(jiān)管者需要積極跟蹤人工智能的行為和與人類(lèi)的互動(dòng),并在必要時(shí)作出調(diào)整,以確保人工智能技術(shù)不會(huì)跨越任何道德界限。
8.確保可以撤消人工智能所做的任何決定
在相關(guān)的說(shuō)明中,組織需要能夠撤消人工智能所做出的任何決定。Forrester公司建議,組織開(kāi)發(fā)的人工智能系統(tǒng)從根本上需要是健全的、可評(píng)估的、包容、可逆的,這意味需要設(shè)計(jì)可更改的人工智能系統(tǒng),而且可能還需要為信貸決策等事項(xiàng)設(shè)立人工智能上訴委員會(huì)。
AI Now研究所進(jìn)一步指出,““技術(shù)工作者的組織和抵制已經(jīng)成為一種責(zé)任和道德決策的力量。技術(shù)公司需要保護(hù)工人的組織能力、揭發(fā)信息的能力,并在他們從事的項(xiàng)目上做出道德選擇。這應(yīng)包括明確的政策,以適應(yīng)和保護(hù)有責(zé)任心的反對(duì)者,確保工作人員有權(quán)知道他們?cè)谧鍪裁?,并有能力在沒(méi)有報(bào)復(fù)或懲罰的情況下放棄此類(lèi)工作。”
9.成立人工智能道德咨詢(xún)委員會(huì)
包括谷歌公司在內(nèi)的多家科技公司已成立人工智能道德咨詢(xún)委員會(huì),以幫助指導(dǎo)他們使用人工智能。雖然讓一群局外人監(jiān)督組織的人工智能工作可能有助于建立公眾信任,但也可能適得其反。一些組織因任命人工智能道德委員會(huì)成員而受到批評(píng),有些人對(duì)此表示反對(duì)。
雖然成立人工智能道德委員會(huì)可能存在一些問(wèn)題,但在缺乏監(jiān)管法規(guī)或行業(yè)標(biāo)準(zhǔn)的情況下,它們可能是組織說(shuō)服公眾的最佳機(jī)會(huì),即通過(guò)沒(méi)有既得利益的人員監(jiān)督人工智能的發(fā)展。