自動(dòng)化是未來(lái),但我們需要以開(kāi)放的眼光和清晰的頭腦進(jìn)入未來(lái)。
重大的安全或隱私泄露會(huì)給企業(yè)帶來(lái)危機(jī)。上頭條新聞,打官司,有時(shí),首席執(zhí)行官在國(guó)會(huì)作證。首席信息官們晝夜不停地工作,得到的卻是解聘書(shū)和前程未卜的事業(yè)。這樣的事情我們見(jiàn)過(guò)不少。
來(lái)自麻省理工學(xué)院和斯坦福大學(xué)的研究人員測(cè)試了來(lái)自主要科技公司的三個(gè)以商業(yè)版的形式發(fā)布的面部分析程序,并將展示這樣的發(fā)現(xiàn)——這些軟件帶有明顯的膚色和性別偏見(jiàn)。面部識(shí)別程序擅長(zhǎng)識(shí)別白人男性,但卻無(wú)法成功地識(shí)別女性(尤其是膚色較深的女性)。即將舉行的公平、問(wèn)責(zé)和透明度會(huì)議將全面公布上周的這個(gè)爆炸性新聞。
偏見(jiàn)有損企業(yè)與公眾之間的關(guān)系。它會(huì)成為批評(píng)人士的眾矢之的,他們會(huì)將這種事情看作是公司不分擔(dān)客戶價(jià)值的證據(jù)。而且,由于人工智能在投資、醫(yī)療保健、貸款和財(cái)務(wù)決策、就業(yè)等方面做出越來(lái)越多的決策,人身和財(cái)務(wù)甚至刑事責(zé)任的風(fēng)險(xiǎn)將會(huì)增加。
在我們開(kāi)始存儲(chǔ)和傳輸有價(jià)值的數(shù)據(jù)(通常是個(gè)人和財(cái)務(wù)方面的數(shù)據(jù))時(shí),我們會(huì)造成數(shù)據(jù)泄露的風(fēng)險(xiǎn)。在人工智能和自動(dòng)化技術(shù)時(shí)代,偏見(jiàn)是新的漏洞。人工智能和自動(dòng)化技術(shù)對(duì)你的公司戰(zhàn)略至關(guān)重要。但隨之而來(lái)的是首席信息官和其他領(lǐng)導(dǎo)者必須應(yīng)對(duì)的新風(fēng)險(xiǎn)和問(wèn)題。
創(chuàng)建系統(tǒng)和流程非常重要,它們可以防止偏見(jiàn)蔓延到公司的人工智能軟件中,并在在偏見(jiàn)產(chǎn)生時(shí)檢測(cè)到它并減少損害。未來(lái)幾年的最大挑戰(zhàn)將會(huì)是這個(gè),而不是失去工作或人工智能對(duì)人身安全的威脅。
公開(kāi)例子
軟件程序可能存在偏見(jiàn),這似乎很奇怪,但原因很簡(jiǎn)單。開(kāi)發(fā)人工智能技術(shù)的專家是那些將數(shù)據(jù)輸入到程序中的人。如果他們使用的數(shù)據(jù)已經(jīng)包含標(biāo)準(zhǔn)的人為偏差,那么他們的人工智能軟件也會(huì)反映這種偏見(jiàn)。這并非有意為之,但不幸的是,在Alexa、Siri或Google Home等系統(tǒng)上開(kāi)始最初的編程時(shí),它并不是一個(gè)主要的考慮因素。
有些批評(píng)人士希望看到人工智能的交互既是性別上中立的,也是種族上中立的。我們可能希望采用更通用的機(jī)器發(fā)音,而不是我們已經(jīng)接觸到的標(biāo)準(zhǔn)女性聲音。這可能有點(diǎn)過(guò)了,但觀點(diǎn)是有效的。在將人工智能集成到商業(yè)組織中時(shí),我們需要時(shí)刻保持警惕,避免出現(xiàn)偏見(jiàn)。
避免偏斜的數(shù)據(jù)集
機(jī)器學(xué)習(xí)的優(yōu)勢(shì)之一在于,與傳統(tǒng)分析方法相比,它可以從相對(duì)較小的數(shù)據(jù)集創(chuàng)建高度引人注目的預(yù)測(cè)模型。這往往會(huì)產(chǎn)生令人興奮且非常有價(jià)值的洞察。但是,這些巨大的利益中存在很大的風(fēng)險(xiǎn)。如果我們希望人工智能完全無(wú)偏見(jiàn),我們必須讓它有一個(gè)盡可能好的起點(diǎn)。目前的數(shù)據(jù)集可能已經(jīng)向基于性別或種族的自動(dòng)假設(shè)偏斜。
當(dāng)我們從頭開(kāi)始建立人工智能系統(tǒng),我們必須認(rèn)識(shí)到這一點(diǎn)。數(shù)據(jù)要完全透明并且不受我們自身偏見(jiàn)的影響。只有這樣,人工智能系統(tǒng)才能夠以不偏不倚的方式為我們提供最好的支持。
不斷的訓(xùn)練和評(píng)估
一旦系統(tǒng)創(chuàng)建并集成到業(yè)務(wù)網(wǎng)絡(luò)中,工作就無(wú)休無(wú)止。偏見(jiàn)仍然會(huì)隨著時(shí)間推移而引入——尤其當(dāng)新數(shù)據(jù)輸入到系統(tǒng)中時(shí)。有助于實(shí)施新系統(tǒng)的員工必須得到適當(dāng)?shù)呐嘤?xùn)。他們必須知道如何尋找我們稱之為偏見(jiàn)蔓延(creeping bias)的東西。隨著系統(tǒng)的發(fā)展,它要始終避免人為缺陷。
種族和性別多樣性
例如,如果一家公司正在引入面部識(shí)別軟件,它應(yīng)對(duì)系統(tǒng)進(jìn)行培訓(xùn),使系統(tǒng)能發(fā)現(xiàn)公司員工和客戶的多樣性。無(wú)論用戶的種族背景如何,它必須能夠識(shí)別正確的性別。確保新人工智能項(xiàng)目的技術(shù)人員和貢獻(xiàn)者本身就具有多樣性,這是一個(gè)好的開(kāi)端。
創(chuàng)意多樣性
盡管種族和性別多樣性似乎很容易糾正,但它們并不是唯一可能最終進(jìn)入人工智能系統(tǒng)的偏見(jiàn)類型。到目前為止,人工智能技術(shù)是由一小部分人創(chuàng)建的,他們都擁有博士學(xué)位。他們并不能代表普羅大眾。由于這個(gè)原因,首席信息官必須意識(shí)到這樣的需要——在人工智能程序中建立背景多樣性。
隨著這些系統(tǒng)的成熟和發(fā)展,在開(kāi)發(fā)過(guò)程中讓更多來(lái)自廣泛背景的人員參與進(jìn)來(lái),這是很重要的。這應(yīng)該包含來(lái)自所有領(lǐng)域的創(chuàng)意人士。這個(gè)想法是為人工智能軟件提供來(lái)自盡可能多的來(lái)源的盡可能多的有效信息。這最終會(huì)成為人工智能成功融入業(yè)務(wù)系統(tǒng)的最佳機(jī)會(huì)。
嚴(yán)格且持續(xù)的測(cè)試
無(wú)論實(shí)施團(tuán)隊(duì)如何努力整合新的人工智能系統(tǒng),仍然存在一些偏見(jiàn)會(huì)隨著時(shí)間流逝進(jìn)入流程的風(fēng)險(xiǎn)。為了避免這個(gè),首席信息官們必須引入一個(gè)持續(xù)的測(cè)試和評(píng)估軟件的過(guò)程。應(yīng)該為最終用戶提供這樣的工具,這些工具可以在他們所使用的程序中檢測(cè)和糾正偏見(jiàn)——一旦他們發(fā)現(xiàn)偏見(jiàn)的話。人工智能可能是一種改變游戲規(guī)則的商業(yè)技術(shù),但前提是我們始終對(duì)偏見(jiàn)保持警惕。
危機(jī)管理和應(yīng)對(duì)——做好準(zhǔn)備
最后,假設(shè)你并不總能把事情弄清楚。積極主動(dòng)地與法務(wù)、企業(yè)風(fēng)險(xiǎn)管理、人力資源,公司通信等一起,為處理災(zāi)難提供實(shí)用,久經(jīng)考驗(yàn)的計(jì)劃。坦誠(chéng)面對(duì)你的偏見(jiàn)。自動(dòng)化是未來(lái),但我們需要以開(kāi)放的眼光和清晰的頭腦進(jìn)入未來(lái)。
版權(quán)聲明:本文為企業(yè)網(wǎng)D1Net編譯,轉(zhuǎn)載需注明出處為:企業(yè)網(wǎng)D1Net,如果不注明出處,企業(yè)網(wǎng)D1Net將保留追究其法律責(zé)任的權(quán)利。