對使用可靠的人工智能技術(shù)要負(fù)責(zé)任

責(zé)任編輯:cres

作者:Narendra Mulani

2018-06-20 10:56:28

來源:企業(yè)網(wǎng)D1Net

原創(chuàng)

隨著人工智能變得更加復(fù)雜,它將開始獨(dú)立制定或協(xié)助人們做出對個(gè)人生活產(chǎn)生更大影響的決策。隨著人們適應(yīng)自動化決策在社會中發(fā)揮越來越大的作用,這也將引發(fā)道德層面的挑戰(zhàn)。

人工智能的未來是廣闊的--這就是為什么我們需要塑造其對人類和社會的影響。
 
人工智能(AI)為我們提供了巨大的機(jī)會,不僅可以提高效率并降低成本,還可以幫助我們重新思考業(yè)務(wù)并解決關(guān)鍵問題。然而,盡管人工智能擁有這些美好前景,但在各個(gè)經(jīng)濟(jì)體和社會中,人們都有著類似的焦慮。許多人認(rèn)為先進(jìn)技術(shù)會注定和不可避免地帶來深刻變化。
 
隨著人工智能變得更加復(fù)雜,它將開始獨(dú)立制定或協(xié)助人們做出對個(gè)人生活產(chǎn)生更大影響的決策。隨著人們適應(yīng)自動化決策在社會中發(fā)揮越來越大的作用,這也將引發(fā)道德層面的挑戰(zhàn)。
 
因此,商業(yè)領(lǐng)導(dǎo)者和決策者需要認(rèn)真對待這些擔(dān)憂,并對啟用和應(yīng)用“可靠的人工智能”負(fù)責(zé)。
 
其可以被描述為遵循以下原則:
 
• 問責(zé)制和透明度
 
• 安全防范機(jī)制
 
• 以人為本的設(shè)計(jì)
 
問責(zé)制和透明度
 
如果人工智能用于評估新職位的應(yīng)聘申請,那么如何確保申請人得到公平和公正的審核?應(yīng)聘者如何確信人工智能不會因?yàn)橛?xùn)練方式而出現(xiàn)錯(cuò)誤或內(nèi)在偏見?
 
存在的風(fēng)險(xiǎn)是,自動化流程有可能通過我們不了解或無法解釋的過程來“學(xué)習(xí)”,從而學(xué)到會導(dǎo)致我們可能不想看到的結(jié)果的模式。算法可能會延續(xù)我們社會中現(xiàn)有的偏見和歧視,從而增加我們對實(shí)施人工智能的缺乏信任。
 
例如,弗吉尼亞大學(xué)的研究人員利用廣泛使用的照片數(shù)據(jù)集對一個(gè)人工智能程序進(jìn)行訓(xùn)練,后來發(fā)現(xiàn)該系統(tǒng)放大了傳統(tǒng)的性別偏見。在后來的訓(xùn)練中,它甚至將站在火爐旁邊的男人歸類為女人,這是人類不可能犯得錯(cuò)誤。
 
領(lǐng)導(dǎo)者需要透露機(jī)器決策的機(jī)制。他們使用的人工智能必須產(chǎn)生可解釋的結(jié)果,促進(jìn)算法問責(zé)制并消除偏見。這意味著領(lǐng)導(dǎo)者需要找到一些方法,例如對算法進(jìn)行審核,并對所處理數(shù)據(jù)進(jìn)行評估,以便發(fā)現(xiàn)偏見。當(dāng)系統(tǒng)出錯(cuò)時(shí),必須清楚責(zé)任所在。
 
安全防范機(jī)制
 
建立消費(fèi)者對人工智能和自動化系統(tǒng)的信任需要有安全防范機(jī)制。確定財(cái)務(wù)責(zé)任是做到這一點(diǎn)的一種方式,但確保物理安全防范機(jī)制是關(guān)鍵。
 
作為一個(gè)例子,最深入的討論是圍繞自動駕駛汽車展開的。德國在2017年通過了一項(xiàng)新法律,該法律規(guī)定司機(jī)或車輛制造商之間的賠償責(zé)任分擔(dān)取決于司機(jī)或自動駕駛車輛是否處于控制狀態(tài)。在這種做法的背后,汽車制造商已經(jīng)表示,如果發(fā)生事故時(shí),他們的“交通阻塞導(dǎo)航”功能正在使用中,則他們將承擔(dān)責(zé)任。
 
這里新增的內(nèi)容是考慮到汽車制造商對其提供服務(wù)所承擔(dān)的責(zé)任,這是基于傳統(tǒng)保險(xiǎn)架構(gòu)制定出的。通過澄清和說明,讓人們對責(zé)任有更普遍的理解,組織機(jī)構(gòu)可以幫助解決一些問題。然而,除了建立財(cái)務(wù)責(zé)任之外,安全組織需要處理的一些合理要求還包括確保將設(shè)計(jì)的安全性應(yīng)用于自動駕駛系統(tǒng)中。
 
這包括確保人工智能被訓(xùn)練成可以“舉手示意”,要求有智慧和經(jīng)驗(yàn)的人類提供幫助,以在臨界情況下作出最終決定,而不是在只有51%把握的情況下繼續(xù)進(jìn)行操作。
 
以人為本的設(shè)計(jì)
 
人工智能應(yīng)該能夠增強(qiáng)人們的判斷力,幫助人們識別和解決偏見,而不是無形地改變其行為以反映出所期望的結(jié)果。這就超出了消除人工智能自主決策產(chǎn)生的偏見的范疇。
 
領(lǐng)導(dǎo)者也應(yīng)該認(rèn)識到人類和人工智能具有互補(bǔ)技能的能力。以人為本的人工智能會利用人類擅長的批判性思維技能,并將其與人工智能的大量計(jì)算技能相結(jié)合。
 
例如,一個(gè)哈佛大學(xué)的病理學(xué)家團(tuán)隊(duì)開發(fā)了一個(gè)基于人工智能的技術(shù),可以更準(zhǔn)確地識別乳腺癌細(xì)胞。病理學(xué)家以96%的識別準(zhǔn)確率擊敗了只有92%識別準(zhǔn)確率的這些設(shè)備。但是當(dāng)人類和人工智能聯(lián)合起來時(shí),我們看到了最大的驚喜。他們聯(lián)合起來后,可準(zhǔn)確地識別99.5%的癌癥活檢標(biāo)本。
 
在許多情況下,人工智能更善于做出決策—但這并不一定意味著它會做出更好的決策。領(lǐng)導(dǎo)者需要確保其組織的價(jià)值觀應(yīng)融入到他們的人工智能中。部署人工智能而不依賴可靠的合規(guī)性和核心價(jià)值,這可能會使企業(yè)面臨重大風(fēng)險(xiǎn),包括就業(yè)/人力資源、數(shù)據(jù)隱私、健康和安全問題。在某些情況下,人工智能甚至以聊天機(jī)器人、數(shù)字客服代理的形式出現(xiàn),成為組織的主要代言人。人工智能的這種面向公眾的角色意味著客戶必須看到公司的價(jià)值觀。
 
最近,我在Fjord公司的同事宣稱,他們目睹了道德經(jīng)濟(jì)的興起,這意味著組織無論是否有價(jià)值觀并為之辯護(hù),在商業(yè)上這些內(nèi)容從未像今天這樣至關(guān)重要--而且人工智能需要反映這些價(jià)值觀。

鏈接已復(fù)制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號-6京公網(wǎng)安備 11010502049343號