塔塔咨詢(xún)服務(wù)公司數(shù)據(jù)和分析業(yè)務(wù)負(fù)責(zé)人Kamlesh Mhashilkar說(shuō):“人工智能治理并不只在IT層面或項(xiàng)目層面實(shí)施,也要得到政府、企業(yè)董事會(huì)和首席安全官的重視。”
他指出,例如在醫(yī)療保健領(lǐng)域,人工智能模型必須通過(guò)嚴(yán)格的審核和檢查。其他行業(yè)也有適用的法規(guī)。Mhashilkar說(shuō),“企業(yè)董事會(huì)關(guān)注人工智能治理與經(jīng)濟(jì)行為有關(guān),這是因?yàn)楫?dāng)引入人工智能技術(shù)時(shí),企業(yè)將會(huì)面臨一些風(fēng)險(xiǎn)。”
至于企業(yè)管理層,有關(guān)人工智能的議程是有目的性的。例如,首席財(cái)務(wù)官需要考慮人工智能帶來(lái)的股東價(jià)值和盈利能力。首席信息官和首席數(shù)據(jù)官也是主要的利益相關(guān)者,企業(yè)市場(chǎng)和合規(guī)負(fù)責(zé)人也是如此,更不用說(shuō)客戶(hù)和供應(yīng)商。
并非所有企業(yè)需要在構(gòu)建人工智能治理戰(zhàn)略的各個(gè)方面采取行動(dòng)。尤其一些規(guī)模較小的公司。盡管如此,各種規(guī)模的企業(yè)都將使用人工智能和相關(guān)技術(shù),即使它們只是嵌入到他們使用的第三方工具和服務(wù)中。
但是如果在未經(jīng)適當(dāng)監(jiān)督的情況下使用人工智能技術(shù)可能出現(xiàn)一些嚴(yán)重錯(cuò)誤,從而損害業(yè)務(wù)運(yùn)營(yíng)、侵犯隱私權(quán),違反行業(yè)法規(guī)或?qū)ζ髽I(yè)帶來(lái)不良信譽(yù)的影響。
具有前瞻性思維的企業(yè)將人工智能項(xiàng)目從試點(diǎn)擴(kuò)展到生產(chǎn),并重點(diǎn)關(guān)注數(shù)據(jù)質(zhì)量、算法性能、合規(guī)性和道德規(guī)范。以下是他們需要解決的人工智能治理問(wèn)題:
人工智能的道德問(wèn)題
如今,很少有哪個(gè)領(lǐng)域比面部識(shí)別領(lǐng)域面臨更多的道德方面的問(wèn)題。其技術(shù)濫用的可能性很大,提供面部識(shí)別技術(shù)的一些企業(yè)正受到公眾的抵制,有時(shí)還受到自己?jiǎn)T工的抵制。
Patriot One科技公司的子公司Xtract AI公司就面臨著這種情況,該公司使用圖像識(shí)別技術(shù)來(lái)識(shí)別攜帶武器的人員。
Xtract AI公司運(yùn)營(yíng)副總裁Justin Granek表示,面部識(shí)別技術(shù)還可以用于其他場(chǎng)合,例如識(shí)別不遵守面具或社交疏導(dǎo)準(zhǔn)則的人員。
他說(shuō),“對(duì)于我們來(lái)說(shuō),道德是一個(gè)主要的話(huà)題。例如我們的員工說(shuō):‘我們正在做些什么?’,這迫使我們需要制定人工智能治理的政策。”
他指出,“客戶(hù)有自己的一些要求,需要確定一個(gè)平衡點(diǎn)。加拿大國(guó)防部是我們的客戶(hù)之一,我們還有一些醫(yī)療保健領(lǐng)域的客戶(hù)。他們正在從不同的角度看待它。”
他表示,該公司面臨最大的問(wèn)題是要為哪些客戶(hù)工作,以及面部識(shí)別技術(shù)應(yīng)該應(yīng)用在哪些方面?這是一個(gè)與企業(yè)使命有關(guān)的重要決定。但是還必須解決一些技術(shù)問(wèn)題,這些問(wèn)題的起因都是數(shù)據(jù)。
正確獲取數(shù)據(jù)
算法偏差的最大來(lái)源是數(shù)據(jù)集。例如,對(duì)于面部識(shí)別技術(shù)來(lái)說(shuō),其數(shù)據(jù)集并不代表一般人群。Granek說(shuō),“我們發(fā)現(xiàn),采用數(shù)據(jù)集更加關(guān)注白人男性,這種情況已經(jīng)得到糾正,但還有很多工作要做。”
Granek表示,專(zhuān)家可以幫助解決數(shù)據(jù)偏差問(wèn)題,商業(yè)數(shù)據(jù)提供商正在努力填補(bǔ)他們提供數(shù)據(jù)的空白。也有創(chuàng)建合成數(shù)據(jù)集的方法,但其解決辦法往往是從外部獲得更好的數(shù)據(jù)。
對(duì)于Xtract AI公司的槍支檢測(cè)算法來(lái)說(shuō),這意味著需要設(shè)置一個(gè)實(shí)驗(yàn)室,而在實(shí)驗(yàn)室中攜帶槍支的人員需要混雜在人群中。
他說(shuō):“這種方法就好像是好萊塢電影中在人群中尋找持槍歹徒的畫(huà)面,我們的人工智能系統(tǒng)需要在人群中進(jìn)行識(shí)別,但這并不代表事情的真相。”
取而代之的是,Xtract AI公司努力收集大量的個(gè)人資料作為訓(xùn)練數(shù)據(jù)。Granek說(shuō),“對(duì)于可能攜帶武器的人員沒(méi)有任何規(guī)定。我們的測(cè)試人員有一些學(xué)生,還有一些年紀(jì)較大的人,總之我們需要采集不同的群體的數(shù)據(jù)。”
對(duì)于某些人工智能應(yīng)用程序來(lái)說(shuō),具有代表性的準(zhǔn)確數(shù)據(jù)集可能是生與死之間的區(qū)別,并具有重大的道德和倫理意義。但是,即使不良數(shù)據(jù)集的影響不會(huì)導(dǎo)致發(fā)生公共災(zāi)難,仍然有可能對(duì)企業(yè)造成運(yùn)營(yíng)影響或財(cái)務(wù)損失,或?qū)е卤O(jiān)管或合規(guī)性問(wèn)題。
這是總部位于墨西哥的Cemex公司關(guān)注的問(wèn)題,Cemex公司是世界上最大的建筑材料分銷(xiāo)商之一,已有100多年的經(jīng)營(yíng)歷史。該公司正在通過(guò)在供應(yīng)鏈管理和運(yùn)營(yíng)中使用人工智能來(lái)重塑自己。大約三年前,Cemex公司開(kāi)始研究人工智能和相關(guān)技術(shù),以擴(kuò)大其市場(chǎng)份額,改善客戶(hù)服務(wù),提高利潤(rùn)。
該公司首席人工智能官Nir Kaldero說(shuō):“我們這兩年實(shí)際上在全球范圍內(nèi)看到了人工智能的價(jià)值,而不僅僅是在小規(guī)模試點(diǎn)項(xiàng)目中。”
他說(shuō),隨著人工智能技術(shù)融入該公司的經(jīng)營(yíng)理念之中,Cemex公司意識(shí)到有必要圍繞人工智能建立治理結(jié)構(gòu)。
Kaldero說(shuō):“這一切都始于數(shù)據(jù)。沒(méi)有良好的信息架構(gòu),就不會(huì)有良好的、可靠的人工智能。沒(méi)有良好的信息,就無(wú)法擁有良好可靠的模型。”
Cemex公司的數(shù)據(jù)治理涵蓋了安全性、監(jiān)控、隱私、合規(guī)性和道德規(guī)范,并且需要知道數(shù)據(jù)位于何處,在何處使用以及如何使用,是否符合法規(guī)要求以及是否沒(méi)有偏見(jiàn)。
Kaldero表示,Cemex公司依靠Snowflake云數(shù)據(jù)平臺(tái)管理數(shù)據(jù)。該公司有一位高管專(zhuān)門(mén)負(fù)責(zé)數(shù)據(jù),另一位高管則負(fù)責(zé)治理團(tuán)隊(duì)的治理。
正確設(shè)置模型
除了數(shù)據(jù)治理之外,Cemex公司開(kāi)始圍繞人工智能模型和結(jié)果創(chuàng)建人工智能治理策略。Kaldero說(shuō),“這些新的東西,不僅對(duì)于Cemex公司來(lái)說(shuō),而且對(duì)于整個(gè)世界也是如此。”
這項(xiàng)任務(wù)由Kaldero帶領(lǐng)的人工智能和數(shù)據(jù)科學(xué)小組以及首席信息官帶領(lǐng)的小組共同承擔(dān)。Cemex公司當(dāng)前使用人工智能技術(shù)來(lái)預(yù)測(cè)其產(chǎn)品需求,因此可以通過(guò)與供應(yīng)商協(xié)商更好的交易來(lái)節(jié)省成本。它還將人工智能用于卡車(chē)的路線(xiàn)安排和調(diào)度以及銷(xiāo)售和定價(jià)。如果這些計(jì)算中的任何一項(xiàng)出現(xiàn)錯(cuò)誤,該公司將蒙受大量損失。
因此,為了防止模型漂移和算法偏差,Cemex公司使用了基于Seattle的Algorithmia的技術(shù)。
KenSci公司是另一家關(guān)注人工智能模型后果的公司。總部位于西雅圖的KenSci公司使用人工智能技術(shù)分析醫(yī)療保健數(shù)據(jù),在這個(gè)領(lǐng)域中,準(zhǔn)確的人工智能模型實(shí)際上面對(duì)的是生死攸關(guān)的問(wèn)題。
該公司首席數(shù)據(jù)科學(xué)家Muhammad Aurangzeb Ahmad說(shuō):“我們總是從與不同利益相關(guān)者一起審查人工智能模型的目標(biāo)開(kāi)始。為確保這些模型透明并且負(fù)責(zé)任,可解釋性是一個(gè)核心組成部分。我們甚至發(fā)布了一個(gè)開(kāi)源Python軟件包fairMLHealth,任何人都可以使用它來(lái)衡量機(jī)器學(xué)習(xí)模型的公平性。”
Ahmad還建議審核人工智能模型在不同群體之間的表現(xiàn),以確保公平對(duì)待少數(shù)群體和其他弱勢(shì)群體。
他說(shuō):“人工智能模型的透明度和可解釋性使它們更容易被最終用戶(hù)使用和信任。而且更易于審核,并在需要時(shí)進(jìn)行更正。”
人工智能與道德
制定人工智能治理策略時(shí)要考慮的另一個(gè)關(guān)鍵領(lǐng)域是人工智能使用的道德規(guī)范。Ahmad說(shuō),“有關(guān)人工智能的法規(guī)并沒(méi)有跟上技術(shù)的發(fā)展,機(jī)器學(xué)習(xí)系統(tǒng)的創(chuàng)造者有責(zé)任將機(jī)器學(xué)習(xí)系統(tǒng)的價(jià)值與道德目標(biāo)結(jié)合起來(lái)。當(dāng)需要權(quán)衡時(shí),我們應(yīng)該謹(jǐn)慎行事。”
數(shù)字服務(wù)咨詢(xún)機(jī)構(gòu)Nerdery公司首席技術(shù)官Joe Tobolski認(rèn)為,越來(lái)越多的企業(yè)意識(shí)到人工智能的潛在道德風(fēng)險(xiǎn)。他說(shuō),“但是,企業(yè)是否完全了解自己正在運(yùn)行的系統(tǒng)以及所擁有的培訓(xùn)數(shù)據(jù)?可能并不是這樣。”
很少有企業(yè)擁有明確的人工智能道德規(guī)范以適用于其人工智能項(xiàng)目、數(shù)據(jù)源和技術(shù)使用。他說(shuō):“這就是我們希望去做的事情,為解決這些問(wèn)題建立一個(gè)強(qiáng)大的、經(jīng)過(guò)整理的框架。”
Cemex公司的主要業(yè)務(wù)是研究限制和阻礙人工智能使用的問(wèn)題,以最大程度地減少潛在的道德問(wèn)題。例如,該公司正在優(yōu)先考慮改善服務(wù)和幫助客戶(hù)的項(xiàng)目,而不是僅僅減少企業(yè)員工的項(xiàng)目。
他說(shuō):“員工是企業(yè)的中心,而不是技術(shù)。我們可以使所有的客戶(hù)呼叫中心自動(dòng)化,但這不符合我們的利益。Cemex公司對(duì)于能為更多員工提供工作機(jī)會(huì)而感到自豪。在我們公司的使命中,這是一件很美好的事情。
選擇人工智能項(xiàng)目會(huì)對(duì)員工產(chǎn)生積極影響。對(duì)于人工智能而言,這是一項(xiàng)巨大的創(chuàng)舉。Cemex公司對(duì)于人工智能技術(shù)所犯錯(cuò)誤的研究,已經(jīng)顯著地減少了事故數(shù)量,而使其減少犯錯(cuò)的方法是采用圖像識(shí)別技術(shù)。”
人工智能治理策略
對(duì)于總部位于馬薩諸塞州的人壽保險(xiǎn)商MassMutual公司來(lái)說(shuō),人工智能治理是基于一套不斷發(fā)展的數(shù)據(jù)道德原則,這些原則指導(dǎo)著企業(yè)的行動(dòng)和決策。
該公司數(shù)據(jù)、戰(zhàn)略和架構(gòu)負(fù)責(zé)人Sears Merritt說(shuō):“我們專(zhuān)門(mén)為使用人工智能制定了一套原則,以使業(yè)務(wù)發(fā)展與企業(yè)價(jià)值和保單持有人的利益保持一致。我們還建立了一個(gè)團(tuán)隊(duì),通過(guò)創(chuàng)建政策框架來(lái)監(jiān)督人工智能的使用。”
大約一年前,MassMutual公司開(kāi)始研究人工智能的道德規(guī)范和治理,當(dāng)時(shí)該公司意識(shí)到需要證明并確保使用人工智能為其保單持有人帶來(lái)利益。
Merritt現(xiàn)在帶領(lǐng)著一個(gè)由6名專(zhuān)家組成的團(tuán)隊(duì),其中包括人工智能倫理和治理顧問(wèn),他們追蹤人工智能算法是否遵守治理原則,以及它們?nèi)绾坞S著時(shí)間推移而發(fā)生的變化,從而為該公司已經(jīng)遵循的方法創(chuàng)建正式的框架。
Merritt說(shuō):“我們相信我們的工作會(huì)對(duì)所有利益相關(guān)者產(chǎn)生巨大影響。”他建議,人工智能治理需要從與企業(yè)價(jià)值觀和客戶(hù)利益保持一致的核心原則入手,并與法律、合規(guī)性、道德和商業(yè)合作伙伴一起實(shí)施。
他說(shuō),MassMutual公司下一步的計(jì)劃將其框架推廣為行業(yè)最佳實(shí)踐。
設(shè)置護(hù)欄的重要性
Booz Allen Hamilton公司高級(jí)副總裁John Larson表示,人們關(guān)于人工智能治理的許多最佳實(shí)踐可能會(huì)有些熟悉。
他說(shuō):“我從業(yè)已有25年的時(shí)間,如今開(kāi)發(fā)人工智能軟件和算法采用的是以前就存在的原理。但是以前不存在的是收集數(shù)據(jù)的速度、處理能力和學(xué)習(xí)算法。”
企業(yè)訓(xùn)練數(shù)據(jù)的人工智能系統(tǒng)通常使用比以往更大的數(shù)據(jù)集,并且由于當(dāng)今業(yè)務(wù)的數(shù)字化,數(shù)據(jù)正以前所未有的速度從網(wǎng)站、網(wǎng)絡(luò)傳感器、物聯(lián)網(wǎng)設(shè)備和其他來(lái)源進(jìn)入人工智能系統(tǒng)。
處理這些數(shù)據(jù)的能力也比以往任何時(shí)候都要顯著提高,這在很大程度上要?dú)w功于可以無(wú)限擴(kuò)展的云計(jì)算資源。
最后,某些人工智能系統(tǒng)的反饋性質(zhì)意味著它們實(shí)際上是在實(shí)踐中學(xué)習(xí),而這些學(xué)習(xí)可以把它們帶到意想不到的方向,其速度之快讓人們無(wú)法想像。
Larson說(shuō):“現(xiàn)在人工智能治理模式與25年前的治理模式的原則是相同的,但它們不能只是適應(yīng)所面臨的挑戰(zhàn)。其解決方案是在人工智能系統(tǒng)中建立自動(dòng)化的保障措施。”
例如,開(kāi)發(fā)人員可以設(shè)置護(hù)欄。如果人工智能模型的預(yù)測(cè)精度超出預(yù)定目標(biāo),或者模型在設(shè)計(jì)參數(shù)范圍內(nèi)停止運(yùn)行,則可能需要某種形式的干預(yù)。同樣,如果進(jìn)入人工智能系統(tǒng)的數(shù)據(jù)不再反映所需的特性,則需要發(fā)出警報(bào),以重新評(píng)估數(shù)據(jù)源,或選擇更適合傳入數(shù)據(jù)的不同模型。
對(duì)于人工智能系統(tǒng)還有其他監(jiān)控方式。例如,測(cè)試被禁止的相關(guān)性(如種族、年齡或宗教信仰)的最終建議,有助于在問(wèn)題導(dǎo)致監(jiān)管罰款或公共關(guān)系災(zāi)難之前發(fā)現(xiàn)問(wèn)題。
Larson說(shuō):“谷歌和微軟等一些公司已經(jīng)開(kāi)發(fā)了一些工具,它們可以評(píng)估模型是否偏向某些事物。Booz Allen公司也正在開(kāi)發(fā)一些工具套件,并試圖為我們的數(shù)據(jù)科學(xué)家提供工具。”
Loeb&Loeb律師事務(wù)所隱私和安全業(yè)務(wù)合伙人兼聯(lián)席主席Jessica Lee表示,任何良好的人工智能治理計(jì)劃都需要明確所有權(quán)和問(wèn)責(zé)制。
她說(shuō):“誰(shuí)將主導(dǎo)這項(xiàng)計(jì)劃,如何糾正這些錯(cuò)誤?企業(yè)需要回答這些問(wèn)題。雖然不能保證能夠避免算法、偏見(jiàn)、歧視性結(jié)果或其他傷害帶來(lái)的意外后果。但良好的人工智能治理肯定會(huì)有所幫助。”
版權(quán)聲明:本文為企業(yè)網(wǎng)D1Net編譯,轉(zhuǎn)載需注明出處為:企業(yè)網(wǎng)D1Net,如果不注明出處,企業(yè)網(wǎng)D1Net將保留追究其法律責(zé)任的權(quán)利。