組織必須從風(fēng)險(xiǎn)管理的角度進(jìn)行治理。人工智能的主要風(fēng)險(xiǎn)因素包括以下幾個(gè)方面:
•可以防止人工智能侵犯人們的隱私嗎?
•能否消除人工智能驅(qū)動(dòng)的應(yīng)用程序中可能產(chǎn)生的社會(huì)和經(jīng)濟(jì)偏見(jiàn)?
•能否確保人工智能驅(qū)動(dòng)的過(guò)程對(duì)于人們完全透明、可解釋和可理解?
•是否可以設(shè)計(jì)人工智能算法,以便始終清楚地表明人類對(duì)其算法結(jié)果的責(zé)任和義務(wù)?
•是否可以將道德和道德原則納入人工智能算法中,以便它們將人類的全部考慮因素權(quán)衡可能會(huì)導(dǎo)致生死攸關(guān)的決定?
•是否可以自動(dòng)使人工智能應(yīng)用程序與利益相關(guān)者的價(jià)值觀保持一致,或者至少在特殊情況下獲得抵御的能力,從而防止惡意機(jī)器人在自主決策場(chǎng)景中出現(xiàn)?
•在不確定性太大而無(wú)法證明自主行動(dòng)正當(dāng)性的情況下,能否遏制人工智能驅(qū)動(dòng)的決策?
•是否可以制定故障保護(hù)程序,以便當(dāng)人工智能自動(dòng)化應(yīng)用程序達(dá)到其能力極限時(shí),人類可以收回控制權(quán)?
•即使需要?jiǎng)討B(tài)適應(yīng)不斷變化的環(huán)境,能否確保人工智能驅(qū)動(dòng)的應(yīng)用程序以一致、可預(yù)測(cè)的方式運(yùn)行,而沒(méi)有意外的副作用?
•能否保護(hù)人工智能應(yīng)用程序免受旨在利用其底層統(tǒng)計(jì)算法漏洞的敵對(duì)攻擊?
•當(dāng)環(huán)境數(shù)據(jù)與受過(guò)訓(xùn)練的環(huán)境有很大出入時(shí),是否可以設(shè)計(jì)優(yōu)雅地而不是災(zāi)難性地失敗的人工智能算法?
基于軟件的流水線自動(dòng)化的人工智能治理
如果在基于軟件的開(kāi)發(fā)和運(yùn)營(yíng)(DevOps)流程中沒(méi)有適當(dāng)?shù)乜刂七m當(dāng)?shù)目丶?,那么人工智能治理將毫無(wú)用處。
人工智能應(yīng)用程序是由數(shù)據(jù)科學(xué)家、數(shù)據(jù)工程師、數(shù)據(jù)管理員和其他人組成的團(tuán)隊(duì)在復(fù)雜的工作流程中構(gòu)建、培訓(xùn)、部署和管理的。為了滿足這一需求,許多組織正在將人工智能治理控制構(gòu)建到其MLOps過(guò)程中。本質(zhì)上,這需要策略驅(qū)動(dòng)的流程自動(dòng)化,這些流程管理數(shù)據(jù)、統(tǒng)計(jì)模型、元數(shù)據(jù),以及用于構(gòu)建、培訓(xùn)和部署人工智能應(yīng)用程序的其他構(gòu)件。它還需要工具來(lái)監(jiān)視人工智能應(yīng)用程序在其生命周期中的使用、行為和結(jié)果。
任何人工智能驅(qū)動(dòng)過(guò)程的典型風(fēng)險(xiǎn)是不知道組織是否可以信任一個(gè)已部署的統(tǒng)計(jì)模型來(lái)準(zhǔn)確可靠地完成分配的任務(wù)。如果一個(gè)統(tǒng)計(jì)模型的預(yù)測(cè)適合度下降到無(wú)法完成其指定任務(wù)(如識(shí)別人臉、理解人類語(yǔ)言或預(yù)測(cè)客戶行為)的程度,那么對(duì)于構(gòu)建和部署它的組織來(lái)說(shuō),這基本上是無(wú)用的。
因此,人工智能治理的核心功能是模型保證。這是一種確定人工智能應(yīng)用程序的機(jī)器學(xué)習(xí)模型是否能夠預(yù)測(cè)適合其分配任務(wù)的能力,如果不適合,則將其重新放回原處。
然而,預(yù)測(cè)精度可能是一個(gè)難以保證的性能指標(biāo)。人工智能的統(tǒng)計(jì)模型通常以人工神經(jīng)網(wǎng)絡(luò)的形式實(shí)現(xiàn),可能是如此的復(fù)雜和神秘,以至于它們掩蓋了它們實(shí)際上是如何驅(qū)動(dòng)自動(dòng)推理的。同樣令人擔(dān)憂的是,基于統(tǒng)計(jì)的應(yīng)用程序可能會(huì)無(wú)意中混淆其自動(dòng)決策可能產(chǎn)生的任何偏見(jiàn)和其他不利后果的責(zé)任。此外,這些概率模型可能很少被評(píng)估和重新訓(xùn)練,導(dǎo)致曾經(jīng)適合特定目的的模型現(xiàn)在已經(jīng)失去了預(yù)測(cè)能力。
在MLOps平臺(tái)中嵌入人工智能模型保證
將業(yè)務(wù)押注在人工智能驅(qū)動(dòng)流程上的組織必須考慮,是將模型保證作為其MLOps平臺(tái)的一項(xiàng)嵌入式功能,還是從專注于這一令人興奮的利基市場(chǎng)的初創(chuàng)供應(yīng)商那里獲得。
幸運(yùn)的是,越來(lái)越多的數(shù)據(jù)科學(xué)DevOps環(huán)境提供了可靠的模型保證。這些工具的最新一代利用云原生基礎(chǔ)設(shè)施來(lái)部署和管理穩(wěn)定的人工智能模型流,并且代碼構(gòu)建一直到邊緣。商業(yè)產(chǎn)品中的主要產(chǎn)品是:
•谷歌云人工智能平臺(tái)提供持續(xù)評(píng)估等模型質(zhì)量保證功能,讓數(shù)據(jù)科學(xué)家將模型預(yù)測(cè)與實(shí)際情況標(biāo)簽進(jìn)行比較,以獲得持續(xù)反饋,并優(yōu)化模型精度。
•H2O.ai無(wú)人駕駛?cè)斯ぶ悄芴峁┝素S富的模型質(zhì)量保證功能。它支持分析一個(gè)模型是否會(huì)對(duì)不同的人口群體產(chǎn)生不同的不利結(jié)果,即使它的設(shè)計(jì)并沒(méi)有考慮到這種結(jié)果。它可以自動(dòng)監(jiān)控已部署模型的預(yù)測(cè)衰減;為A/B測(cè)試建立替代模型的基準(zhǔn);以及在需要重新校準(zhǔn)、重新培訓(xùn)和以其他方式維護(hù)模型以使其為生產(chǎn)做好準(zhǔn)備時(shí)向系統(tǒng)管理員發(fā)出警報(bào)。
•Microsoft Azure機(jī)器學(xué)習(xí)MLOps可以通知機(jī)器學(xué)習(xí)生命周期中的事件并發(fā)送警報(bào),例如實(shí)驗(yàn)完成、模型注冊(cè)、模型部署和數(shù)據(jù)漂移檢測(cè)。它可以監(jiān)視機(jī)器學(xué)習(xí)應(yīng)用程序的模型特定指標(biāo),并提供機(jī)器學(xué)習(xí)基礎(chǔ)設(shè)施的監(jiān)視和警報(bào)。它還可以根據(jù)新數(shù)據(jù)和其他操作和業(yè)務(wù)因素自動(dòng)重新培訓(xùn)、更新和重新部署模型。
•Amazon SageMaker Model Monitor持續(xù)監(jiān)視AWS Sagemaker云計(jì)算服務(wù)中的機(jī)器學(xué)習(xí)模型,檢測(cè)諸如數(shù)據(jù)漂移之類的偏差,這些偏差會(huì)隨著時(shí)間的推移降低模型性能,并警告用戶采取補(bǔ)救措施,例如審核或再培訓(xùn)模型??梢园才疟O(jiān)視作業(yè)按常規(guī)節(jié)奏運(yùn)行,可以將摘要指標(biāo)推送到Amazon CloudWatch以設(shè)置警報(bào)和觸發(fā)器以采取糾正措施,并支持Amazon SageMaker支持的多種實(shí)例類型。
•Superwise的人工智能保證提供了一個(gè)實(shí)時(shí)平臺(tái),用于監(jiān)控和維護(hù)已部署人工智能模型的準(zhǔn)確性。它使涉眾能夠在部署的人工智能模型產(chǎn)生負(fù)面業(yè)務(wù)影響之前發(fā)現(xiàn)模型衰退和其他問(wèn)題。它標(biāo)記了模型的不精確性,這些誤差源于人工智能模型的數(shù)據(jù)變化。它還可以捕捉到與模型部署到的業(yè)務(wù)環(huán)境中的變化相關(guān)聯(lián)的不精確性。它為數(shù)據(jù)科學(xué)團(tuán)隊(duì)提供了前瞻性的建議,以采取人工操作來(lái)保持模型的準(zhǔn)確性、公正性以及其他方面的適用性。它還可以自動(dòng)執(zhí)行一些糾正措施,以防止模型漂移到潛在的次優(yōu)領(lǐng)域。
結(jié)論
雖然人工智能并不是公眾的威脅,但現(xiàn)實(shí)情況是,可能會(huì)看到更多的司法管轄區(qū)加強(qiáng)了這項(xiàng)技術(shù)的監(jiān)管規(guī)定。
隨著人們進(jìn)入20世紀(jì)20年代,從最好的和最壞的意義上講,人工智能應(yīng)用將是最具顛覆性的技術(shù)。如果擴(kuò)散不受監(jiān)控和控制,則錯(cuò)誤的人工智能模型將給社會(huì)造成嚴(yán)重破壞。人工智能的某些風(fēng)險(xiǎn)來(lái)自技術(shù)特定構(gòu)造中的設(shè)計(jì)限制。其他原因可能是由于對(duì)實(shí)時(shí)人工智能應(yīng)用程序的運(yùn)行時(shí)管理不足。還有其他一些可能是該技術(shù)難以理解的機(jī)器學(xué)習(xí)、深度學(xué)習(xí)和人工智能依賴的其他統(tǒng)計(jì)模型的“黑盒”復(fù)雜性所固有的。
為了減輕這些風(fēng)險(xiǎn),組織將越來(lái)越多地要求在每個(gè)部署場(chǎng)景中對(duì)這些模型的性能進(jìn)行自動(dòng)化治理。
版權(quán)聲明:本文為企業(yè)網(wǎng)D1Net編譯,轉(zhuǎn)載需注明出處為:企業(yè)網(wǎng)D1Net,如果不注明出處,企業(yè)網(wǎng)D1Net將保留追究其法律責(zé)任的權(quán)利。