可解釋的人工智能:4個關(guān)鍵行業(yè)

責(zé)任編輯:cres

作者:Kevin Casey

2019-06-06 14:01:47

來源:企業(yè)網(wǎng)D1Net

原創(chuàng)

可解釋的人工智能可以讓人們理解人工智能系統(tǒng)是如何做出決定的,而這將成為醫(yī)療、制造、保險(xiǎn)、汽車領(lǐng)域的關(guān)鍵。

可解釋的人工智能可以讓人們理解人工智能系統(tǒng)是如何做出決定的,而這將成為醫(yī)療、制造、保險(xiǎn)、汽車領(lǐng)域的關(guān)鍵。那么這對于組織意味著什么?
 
例如,流媒體音樂服務(wù)平臺Spotify計(jì)劃向用戶推薦歌手Justin Bieber的歌曲,卻推薦了Belieber的歌,顯然這有些令人感到困擾。這并不一定意味著Spotify網(wǎng)站的程序員必須確保他們的算法透明且易于理解,但人們可能會發(fā)現(xiàn)這有些偏離目標(biāo),但其后果顯然是微不足道的。
 
這是可解釋人工智能的一個試金石——即機(jī)器學(xué)習(xí)算法和其他人工智能系統(tǒng),它們可以產(chǎn)生人類可以容易理解并追溯到起源的結(jié)果?;谌斯ぶ悄艿慕Y(jié)果越重要,對可解釋人工智能的需求就越大。相反,相對低風(fēng)險(xiǎn)的人工智能系統(tǒng)可能只適合黑盒模型,人們很難理解其結(jié)果。
 
Jane.ai公司人工智能研發(fā)主管Dave Costenaro說:“如果人工智能算法的效果不夠好,比如音樂服務(wù)公司推薦的歌曲一樣,那么社會可能不需要監(jiān)管機(jī)構(gòu)對這些建議進(jìn)行監(jiān)管。”
 
人們可以忍受應(yīng)用程序?qū)ζ湟魳菲肺兜恼`解。但可能無法忍受人工智能系統(tǒng)帶來的更重要的決定,也許是在建議的醫(yī)療或拒絕申請抵押貸款的情況下。
 
這些都是高風(fēng)險(xiǎn)的情況,尤其是在出現(xiàn)負(fù)面結(jié)果的情況下,人們可能需要明確地解釋是如何得出特定結(jié)果的。在許多情況下,審計(jì)師、律師、政府機(jī)構(gòu)和其他潛在當(dāng)事人也會這樣做。
 
Costenaro表示,由于特定決策或結(jié)果的責(zé)任從人類轉(zhuǎn)移到機(jī)器,因此對可解釋性的需求也會增加。
 
Costenaro說,“如果算法已經(jīng)讓人類處于這個循環(huán)中,人類決策者可以繼續(xù)承擔(dān)解釋結(jié)果的責(zé)任。”
 
他舉例說明了一個為放射科醫(yī)生預(yù)先標(biāo)記X射線圖像的計(jì)算機(jī)視覺系統(tǒng)。他說,“這可以幫助放射科醫(yī)生更準(zhǔn)確、更有效地工作,但最終將提供診斷和解釋。”
 
IT的人工智能責(zé)任:解釋原因
 
然而,隨著人工智能的成熟,人們可能會看到越來越多的新應(yīng)用程序逐漸依賴于人類的決策和責(zé)任。音樂推薦引擎可能沒有特別重大的責(zé)任負(fù)擔(dān),但許多其他真實(shí)或潛在的用例將會面臨重大的責(zé)任。
 
Costenaro說,“對于一類新的人工智能決策來說,這些決策具有很高的影響力,而且由于所需處理的速度或數(shù)量,人類不再能夠有效地參與其中,從業(yè)者們正在努力尋找解釋算法的方法。”
 
IT領(lǐng)導(dǎo)者需要采取措施確保其組織的人工智能用例在必要時(shí)正確地包含可解釋性。 TigerGraph公司營銷副總裁Gaurav Deshpande表示,許多企業(yè)首席信息官已經(jīng)關(guān)注這個問題,即使他們了解到特定人工智能技術(shù)或用例的價(jià)值,他們通常還有一些猶豫。
 
Deshpande說,“但是如果不能解釋是如何得出答案的,就不能使用它。這是因?yàn)?lsquo;黑盒’人工智能系統(tǒng)存在偏見的風(fēng)險(xiǎn),這可能導(dǎo)致訴訟、對企業(yè)品牌以及資產(chǎn)負(fù)債表的重大責(zé)任和風(fēng)險(xiǎn)。”
 
這是思考企業(yè)如何以及為何采用可解釋的人工智能系統(tǒng)而不是操作黑盒模型的另一種方式。他們的業(yè)務(wù)可能依賴于它。人們對人工智能偏見的主張可能會被誤導(dǎo)。在風(fēng)險(xiǎn)較高的情況下,類似的要求可能相當(dāng)嚴(yán)重。而這就是可解釋的人工智能可能成為機(jī)器學(xué)習(xí)、深度學(xué)習(xí)和其他學(xué)科的商業(yè)應(yīng)用的焦點(diǎn)的原因。
 
可解釋的人工智能在四個行業(yè)中的作用
 
Ness數(shù)字工程公司首席技術(shù)官M(fèi)oshe Kranc對可解釋人工智能的潛在用例進(jìn)行了探討,他說,“任何影響人們生活的用例都可能受到偏見的影響。”其答案既簡單又深遠(yuǎn)。
 
他分享了一些越來越多地可能由人工智能做出決定的例子,但這從根本上需要信任、可審計(jì)性和其他可解釋人工智能的特征:
 
•參加培訓(xùn)計(jì)劃
 
•決定是否為某人投保以及投保多少費(fèi)用
 
•根據(jù)人口統(tǒng)計(jì)數(shù)據(jù)決定是否向某人發(fā)放信用卡或貸款
 
考慮到這一點(diǎn),各種人工智能專家和IT領(lǐng)導(dǎo)者為此確定可解釋人工智能必不可少的行業(yè)和用例。銀行業(yè)是一個很好的例子,可以這么說,可解釋的人工智能非常適合機(jī)器在貸款決策和其他金融服務(wù)中發(fā)揮關(guān)鍵作用。在許多情況下,這些用途可以擴(kuò)展到其他行業(yè),其細(xì)節(jié)可能會有所不同,但原則保持不變,因此這些示例可能有助于思考組織中可解釋的人工智能用例。
 
1.醫(yī)療保健行業(yè)
 
對可解釋人工智能的需求與人類的影響將會同步上升。因此,醫(yī)療保健行業(yè)是一個良好的起點(diǎn),因?yàn)樗彩侨斯ぶ悄芸赡芊浅S幸娴念I(lǐng)域。
 
Kinetica公司首席執(zhí)行官Paul Appleby說,“使用可解釋的人工智能的機(jī)器可以為醫(yī)務(wù)人員節(jié)省大量時(shí)間,使他們能夠?qū)W⒂卺t(yī)學(xué)的解釋性工作,而不是重復(fù)性任務(wù)。他們可以同時(shí)給予每位患者更多的關(guān)注。其潛在的價(jià)值很大,但需要可解釋的人工智能提供的可追溯的解釋??山忉尩娜斯ぶ悄茉试S機(jī)器評估數(shù)據(jù)并得出結(jié)論,但同時(shí)給醫(yī)生或護(hù)士提供決策數(shù)據(jù),以了解如何達(dá)成該結(jié)論,因此在某些情況下得出不同的結(jié)論,這需要人類解釋其細(xì)微差別。”
 
SAS公司執(zhí)行副總裁兼首席信息官Keith Collins分享了一個特定的實(shí)際應(yīng)用程序。他說,“我們目前正在研究醫(yī)生使用人工智能分析來幫助更準(zhǔn)確地檢測癌癥病變的案例。該技術(shù)可以充當(dāng)醫(yī)生的虛擬助手,并解釋了核磁共振成像(MRI)圖像中的每個變量如何有助于識別可疑區(qū)域是否有可能致癌,而其他可疑區(qū)域則沒有。”
 
2.制造行業(yè)
 
在診斷和修復(fù)設(shè)備故障時(shí),現(xiàn)場技術(shù)人員通常依賴“部落知識”。
 
IBM Watson物聯(lián)網(wǎng)高級產(chǎn)品經(jīng)理Heena Purohit指出,在制造行業(yè)中,現(xiàn)場技術(shù)人員在診斷和修復(fù)設(shè)備故障時(shí)往往依賴“部落知識”,也有一些行業(yè)也是如此。部落知識的問題在于團(tuán)隊(duì)成員變動頻繁,有時(shí)甚至是顯著的:人員流動頻繁,他們的專業(yè)知識也會改變,而這些知識并不總是被記錄或轉(zhuǎn)移。
 
Purohit說,“人工智能驅(qū)動的自然語言處理可以幫助分析非結(jié)構(gòu)化數(shù)據(jù),如設(shè)備手冊、維護(hù)標(biāo)準(zhǔn),以及例如歷史工作訂單、物聯(lián)網(wǎng)傳感器讀數(shù)和業(yè)務(wù)流程數(shù)據(jù)等結(jié)構(gòu)化數(shù)據(jù),以提出技術(shù)人員應(yīng)遵循的規(guī)定性指導(dǎo)的最佳建議。”
 
這并不能消除部落知識的價(jià)值,也沒有削弱人類的決策制定。相反,它是一個迭代和交互的過程,有助于確保以可操作的方式存儲和共享知識。
 
Purohit解釋道,“在這種情況下,我們向用戶展示了由人工智能驅(qū)動的多種可能的維修指導(dǎo)建議選項(xiàng),并且每個響應(yīng)的置信區(qū)間都是可能的答案。用戶可獲得每個選項(xiàng),這有助于持續(xù)學(xué)習(xí)過程,并改進(jìn)未來的建議。這樣,我們不會只給用戶單一的選擇,我們允許用戶在各個選項(xiàng)之間作出明智的決定。對于每個建議,我們還向用戶顯示了知識圖輸出這個高級功能,以及在人工智能培訓(xùn)階段使用的輸入,以幫助用戶了解有關(guān)為什么結(jié)果被優(yōu)先排序和相應(yīng)評分的參數(shù)。”
 
3.保險(xiǎn)行業(yè)
 
就像醫(yī)療保健行業(yè)一樣,人工智能對于保險(xiǎn)行業(yè)可能會產(chǎn)生深遠(yuǎn)的影響,但信任、透明度、可審計(jì)性是絕對必要的。
 
Cognitivescale公司創(chuàng)始人兼首席技術(shù)官M(fèi)att Sanchez說:“人工智能在保險(xiǎn)領(lǐng)域有著許多潛在的使用案例,例如客戶獲取、代理生產(chǎn)率、索賠預(yù)防、承保、客戶服務(wù)、交叉銷售、政策調(diào)整,以及提高風(fēng)險(xiǎn)和合規(guī)性。”他指出,埃森哲公司最近的一項(xiàng)調(diào)查發(fā)現(xiàn),大多數(shù)保險(xiǎn)業(yè)高管預(yù)計(jì)人工智能將在未來三年內(nèi)徹底改變其行業(yè)。
 
但這絕對是一個有相當(dāng)大影響的領(lǐng)域。只需考慮關(guān)鍵的保險(xiǎn)類別就可以感受到這些影響,例如生活、業(yè)主、健康、員工補(bǔ)償?shù)鹊取anchez表示,可解釋的人工智能將非常重要;建議人們思考這些問題,而每個問題也適用于其他領(lǐng)域:
 
•人工智能能否解釋它是如何獲得這種洞察力或結(jié)果的?
 
•應(yīng)用了哪些數(shù)據(jù)、模型和處理來獲得其結(jié)果?
 
•監(jiān)管機(jī)構(gòu)可以訪問并了解此人工智能的工作原理嗎?
 
•誰在訪問什么以及何時(shí)訪問?
 
4.自動駕駛汽車
 
可解釋的人工智能最終應(yīng)該是使人工智能提供最大的價(jià)值。
 
PubNub公司首席技術(shù)官兼聯(lián)合創(chuàng)始人Stephen Blum表示,“了解人工智能服務(wù)為什么做出某種決定,或者了解是如何獲得某種洞察力,這對于人工智能從業(yè)者更好地整合人工智能服務(wù)至關(guān)重要。例如自動駕駛汽車的人工智能系統(tǒng)將如何構(gòu)建與車輛交互的方式,這對乘坐人員來說將面臨很大的風(fēng)險(xiǎn),因?yàn)檫@意味著其決定生死攸關(guān)。”
 
事實(shí)上,自動駕駛汽車無疑是人工智能發(fā)揮重要作用的新興領(lǐng)域,可解釋的人工智能將是成為其最重要的領(lǐng)域。
 
Kinetica公司首席執(zhí)行官Appleby解釋了這種情況的重要性。他說,“如果一輛自動駕駛汽車發(fā)現(xiàn)自己處于不可避免的危險(xiǎn)境地時(shí),應(yīng)該采取什么措施?優(yōu)先保護(hù)乘客卻將行人置于危險(xiǎn)之中?還是為了避免撞到行人而危及乘客安全?”
 
因此,獲得這些問題的答案并不簡單。但這將給出一個非常直接的結(jié)論:人工智能的黑盒模型在這種情況下不起作用。無論對于乘客還是行人,都必須解釋清楚,更不用說汽車制造商、公共安全官員等相關(guān)人員。
 
Appleby說,“我們可能對自動駕駛汽車的響應(yīng)并不認(rèn)同,但我們應(yīng)該提前了解它所遵循的道德優(yōu)先事項(xiàng)。通過企業(yè)內(nèi)部建立的數(shù)據(jù)治理,汽車制造商可以通過跟蹤和解釋模型從決策點(diǎn)A到Z點(diǎn)的方式來跟蹤數(shù)據(jù)集,從而使他們更容易評估這些結(jié)果是否符合他們采取的道德立場。同樣,乘客也可以決定他們是否愿意乘坐做出某些決定而設(shè)計(jì)的車輛。”
 
這可能是一個嚴(yán)峻的現(xiàn)實(shí),但同樣有一個基本原則,這包括那些不是生死攸關(guān)的場景??山忉尩娜斯ぶ悄苁歉倪M(jìn)和優(yōu)化的人工智能技術(shù),這是IT領(lǐng)導(dǎo)者思考人工智能的另一種方式。
 
Blum說,“如果人工智能系統(tǒng)出錯,其構(gòu)建者需要理解為什么會這樣做,這樣才能改進(jìn)和修復(fù)。如果他們的人工智能服務(wù)在黑盒中存在并運(yùn)行,他們就無法了解如何調(diào)試和改進(jìn)它。”

鏈接已復(fù)制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號-6京公網(wǎng)安備 11010502049343號