由于不久前的劍橋分析丑聞鬧得人心惶惶,許多人希望GDPR將成為全球數(shù)據(jù)隱私新標(biāo)準(zhǔn)的典范。目前一些行業(yè)領(lǐng)導(dǎo)者正在呼吁Facebook將GDPR標(biāo)準(zhǔn)應(yīng)用于其在非歐盟國家的業(yè)務(wù)。
但隱私只是圍關(guān)于數(shù)據(jù)驅(qū)動系統(tǒng)之爭的一個方面,實際上機(jī)器學(xué)習(xí)支持系統(tǒng)的日益普及引發(fā)了一系列相關(guān)問題,包括一個對社會產(chǎn)生很大影響且無法量化的問題:偏見。
在我們的生活中,許多重要決策都是由某種系統(tǒng)做出的,很多系統(tǒng)都存在明顯的偏見,無論這系統(tǒng)是人、機(jī)器還是二者的組合。機(jī)器學(xué)習(xí)在決策制度中的作用越來越大,這為我們提供了一個建立更少偏見的系統(tǒng)的機(jī)會,當(dāng)然也面臨著加劇這一問題的風(fēng)險。
我們通常認(rèn)為計算機(jī)比人類更客觀、更公正。然而過去的幾年里,許多機(jī)器學(xué)習(xí)系統(tǒng)產(chǎn)生了帶有偏見或歧視的結(jié)果,人們對此也有著很多爭議。2016年時ProPublica曾報道,美國法院用來衡量被告再次犯罪可能性的機(jī)器學(xué)習(xí)算法,在對比背景相似的黑人與白人被告時會認(rèn)為黑人的“風(fēng)險更高”,即使系統(tǒng)沒有提供有關(guān)被告種族的任何數(shù)據(jù)也依然如此。
雷鋒網(wǎng)不久前一篇名為《關(guān)于模型可解釋性的深入思考:從哪里來,到哪里去?》的文章中,曾詳細(xì)介紹了學(xué)習(xí)出一個通用智能行動者的潛力和局限性,算法公平方面細(xì)微的以及可以被真正規(guī)范化的挑戰(zhàn)。人們使用機(jī)器學(xué)習(xí)系統(tǒng)的目的是希望世界更公平、更有效率,而不是進(jìn)一步放大人類的偏見。
這就是為什么GDPR允許用戶可以要求解釋機(jī)器任何“合法或類似重要”的決策,希望解釋的權(quán)利能夠使“算法歧視”的受害者訴諸人權(quán),從而減輕這種偏見的影響。
但是生成這些類型的解釋——即創(chuàng)造可解釋的人工智能——是非常復(fù)雜的,而且即便系統(tǒng)對決策做出了解釋,也有一些評論家認(rèn)為“無法分辨它們是真的反對偏見,還是僅僅是掩飾偏見。”
可解釋的人工智能以及GDPR是否會使技術(shù)更公平?如果不是,隨著機(jī)器學(xué)習(xí)的使用變得更加普遍,我們還有什么替代方法可以防范偏見?
機(jī)器學(xué)習(xí)中的偏見
關(guān)于偏見的討論常常被過分簡化為諸如“種族主義算法”這樣的詞語,但其實問題不在于算法本身,而是數(shù)據(jù)研究團(tuán)隊提供給機(jī)器的數(shù)據(jù)。
例如,收集以往的數(shù)據(jù)是數(shù)據(jù)科學(xué)項目的一個共同起點(diǎn),但“歷史數(shù)據(jù)往往偏向于我們不希望轉(zhuǎn)移到未來的方式,”加州大學(xué)伯克利分校電子工程與計算機(jī)科學(xué)學(xué)院助理教授、加州大學(xué)伯克利分校崛起實驗室的創(chuàng)始人之一Joey Gonzalez說。
假設(shè)某公司建立了一個篩選求職者的機(jī)器學(xué)習(xí)模型,并基于公司過去篩選類似職位求職者的數(shù)據(jù)集對模型進(jìn)行培訓(xùn)。如果該公司的HR曾多次拒絕過那些試圖重返職場的前全職父母,則培訓(xùn)的結(jié)果很有可能會讓模型也將這些存在長期就業(yè)缺口的人排除在外。
如果更進(jìn)一步,這將導(dǎo)致模型過多的拒絕女性求職者(全職父母多為女性)從而造成性別比例失調(diào),即使性別并不是模型培訓(xùn)數(shù)據(jù)集中的特征。因此在這一領(lǐng)域中,使用機(jī)器學(xué)習(xí)將進(jìn)一步放大人類的偏見。
而這就是可解釋的人工智能的用武之地。如果操作人員能夠檢查“推理”算法,就有可能在算法產(chǎn)生嚴(yán)重偏差之前進(jìn)行糾正。
讓機(jī)器解釋自己
由于機(jī)器學(xué)習(xí)系統(tǒng)的行為由它學(xué)到的數(shù)據(jù)所驅(qū)動,所以它的工作方式與人們編寫的標(biāo)準(zhǔn)計算機(jī)程序有很大不同。人們可以測量一個機(jī)器學(xué)習(xí)系統(tǒng)的準(zhǔn)確性,但是對于這種系統(tǒng)實際做出決策的可見性是有限的。
(雷鋒網(wǎng)注:和人腦類似,人腦的思考是由特定區(qū)域內(nèi)神經(jīng)元的復(fù)雜放電而產(chǎn)生,但人們并不確切知道具體怎樣的神經(jīng)元活動會得出怎樣的思考。所以當(dāng)人們想驗證決策正確性時并不會去掃描大腦,而是通過相關(guān)數(shù)據(jù)以及過往的經(jīng)驗判斷。)
可解釋的人工智能要求機(jī)器學(xué)習(xí)算法可以自己證明決策的正確性。華盛頓大學(xué)的研究人員在2016年構(gòu)建了一種稱為LIME的解釋技術(shù),并在由Google構(gòu)建的圖像分類神經(jīng)網(wǎng)絡(luò)Inception Network上進(jìn)行了測試。
LIME在做出圖像分類決策時,不會考慮觸發(fā)神經(jīng)網(wǎng)絡(luò)中的哪個神經(jīng)元,而是在圖像本身中搜索解釋。它會將原始圖像的不同部分變黑,并通過Inception將產(chǎn)生的“擾動”圖像反饋回來,以檢查哪些擾動將算法拋離最遠(yuǎn)。
通過這種方法,LIME可以將初始網(wǎng)絡(luò)分類決策歸因于原始圖片的特定特征。例如對于青蛙的圖像,LIME發(fā)現(xiàn)抹除部分臉部會讓初始網(wǎng)絡(luò)很難識別圖像,這表明最初的分類決策大多是基于青蛙的臉。
雖然像LIME這樣的特征歸屬方法并不能完全解釋算法的決策,并且在各種類型的機(jī)器學(xué)習(xí)模型上都不能工作的很好,但至少在圖像分類方面,它朝著正確方向邁出了一步。
據(jù)雷鋒網(wǎng)了解,美國的人臉識別系統(tǒng)對黑人的面部識別遠(yuǎn)不如對白人那般精確(訓(xùn)練算法時用的圖像多為白人),這增加了黑人被監(jiān)控攝像誤認(rèn)導(dǎo)致被逮捕的可能性,嚴(yán)重者甚至?xí)a(chǎn)生誤判。更好的解釋這些算法決策并加以監(jiān)督,顯然將有助于避免此類不良結(jié)果。
人們還需要做什么
雖然可解釋的人工智能和神經(jīng)網(wǎng)絡(luò)的特征歸因很有發(fā)展前景,但消除人工智能的偏見最終會歸結(jié)為一件事:數(shù)據(jù)。
如果算法的訓(xùn)練數(shù)據(jù)不能公平的覆蓋開發(fā)者想要服務(wù)的人群,系統(tǒng)就很有可能出現(xiàn)偏差。如果訓(xùn)練數(shù)據(jù)隱含了歷史上的不公平現(xiàn)象,該算法就會學(xué)習(xí)進(jìn)而延續(xù)甚至放大這些問題。
雖然GDPR和類似的法規(guī)對組織如何使用數(shù)據(jù)進(jìn)行了一些控制,但它們也無法阻止這些組織使用已經(jīng)存在偏見的數(shù)據(jù)集。
算法的發(fā)展當(dāng)然對克服偏見有所幫助,但歸根結(jié)底責(zé)任并不在數(shù)學(xué)結(jié)構(gòu)、軟件或硬件,而是在于這些決策系統(tǒng)的設(shè)計者和操作者,人們有責(zé)任明智而公平地收集,存儲和使用這些數(shù)據(jù)。
從某種意義上說,減少機(jī)器學(xué)習(xí)算法中的偏見不僅需要人工智能的進(jìn)步,還需要我們對人類多樣性理解的進(jìn)步。
為了開發(fā)公平和負(fù)責(zé)任的人工智能,技術(shù)人員需要社會學(xué)家,心理學(xué)家,人類學(xué)家和其他專家的幫助,他們能夠洞察偏見對人類生活的影響,并告訴人們?nèi)绾伪苊庾屍娪绊憴C(jī)器學(xué)習(xí)系統(tǒng)。
技術(shù)本身并不能解決社會問題,但是通過不同學(xué)科間的合作,研究者和開發(fā)者可以創(chuàng)建有利于更公平社會的機(jī)器學(xué)習(xí)技術(shù)。