人工智能在擁有數(shù)十年發(fā)展和應(yīng)用歷史的同時卻有著奇怪的定位,但對于許多人來說,人工智能仍然是一種未來主義的感覺。實(shí)際上人工智能并不是新事物,但它始終是一個永恒的“新”領(lǐng)域。沒有人可以確切地知道其發(fā)展到底會何去何從。
對于不了解的事物,一些人會感到害怕。而人工智能的未來發(fā)展也讓很多人徹夜難眠,這是有道理的,尤其是考慮到可能出現(xiàn)的不利后果時。人們可以合理地假設(shè)任何重大技術(shù)發(fā)展都是如此:它們將會產(chǎn)生變化,從而令人感到恐懼。但是,與人工智能相關(guān)的恐懼卻有不同的優(yōu)先級。例如,大多數(shù)人不知道什么是微服務(wù)架構(gòu),即使他們每天使用的一些應(yīng)用程序是以分離的方式構(gòu)建的。但是像微服務(wù)這樣的技術(shù)進(jìn)化并不會像人工智能那樣對潛在的社會和經(jīng)濟(jì)影響產(chǎn)生這樣的情感反應(yīng)。微服務(wù)也不會在流行文化中一直存在。
這主要說明了人們對人工智能發(fā)展前途并不明朗的擔(dān)憂,當(dāng)人們的想象力失控時,就會很難評估它們的有效性。這對于如今試圖構(gòu)建實(shí)用人工智能戰(zhàn)略的IT領(lǐng)導(dǎo)人和其他高管來說并不是特別有用。然而,很多人會對人工智能感到恐懼,并且有著充分的理由。對于人工智能的入門者來說,他們更容易失敗,因?yàn)樗麄兺ǔ;诋?dāng)前的現(xiàn)實(shí),而不是未來的推測。
加州大學(xué)歐文分校神經(jīng)科學(xué)研究助理、ContinualAi公司聯(lián)合負(fù)責(zé)人Keiland Cooper表示,“人們對人工智能的恐懼類型取決于人們所談?wù)摰娜斯ぶ悄茴愋汀Ec當(dāng)今普遍使用的更現(xiàn)實(shí)的人工智能算法相比,理論性更強(qiáng)、更遙遠(yuǎn)的‘通用人工智能’(一種能夠完成人類所能做的所有事情的計(jì)算機(jī))將引發(fā)更多的恐懼。”
以下了解一下當(dāng)今有關(guān)人工智能的五個問題,以及專家為解決這些問題而提供的建議,這樣就不會破壞企業(yè)實(shí)施人工智能的計(jì)劃。
1. 恐懼:人工智能會產(chǎn)生有偏見的結(jié)果
人們越來越關(guān)注人工智能系統(tǒng)中的偏見和其他問題及其導(dǎo)致的決策或結(jié)果的可能性。與好萊塢電影的一些更富想象力的人工智能故事不同,人們應(yīng)該對于人工智能的偏見感到恐懼。
SkyMind公司聯(lián)合創(chuàng)始人兼首席執(zhí)行官Chris Nicholson說,“人工智能的算法只和訓(xùn)練數(shù)據(jù)一樣好。因此,如果一個數(shù)據(jù)集包含了組織的歷史偏見,那么它所做的預(yù)測將反映這一歷史行為,例如,如果一家公司通常會將擁有常春藤名校學(xué)位的白人男性提升到權(quán)威職位,那么經(jīng)過培訓(xùn)的人工智能算法可以識別出未來的領(lǐng)導(dǎo)才能,并將其重點(diǎn)放在同一類型的應(yīng)聘者身上,并且忽略不屬于該類別的應(yīng)聘者。”
解決方法:
人們應(yīng)該接受這種恐懼并采取行動。無需擔(dān)心人工智能偏見會增加其不受控制地?cái)U(kuò)散的可能性。
人工智能算法不應(yīng)免除個人和組織對結(jié)果的責(zé)任。人工監(jiān)督和管理是絕對必要的,并且有很好的例子說明了另一種恐懼(不再需要人類)可能有點(diǎn)言過其實(shí)。
Nicholson說,“人們不能相信人工智能能夠知道一切或做出完美的決定。人工智能算法是由人類創(chuàng)造的,但人類也會犯錯。所以每個公司都要做的是建立一個系統(tǒng)來檢查人工智能,或者定期抽取人工智能的決策樣本并展示給專家,并詢問他們:這看起來正確嗎?而其結(jié)果至少不會比專家差,這是企業(yè)最初所希望的結(jié)果。”
這在醫(yī)療、保險、銀行、政府等行業(yè)可能尤為重要。但事實(shí)上,在任何地方這都是一個重要的問題。
Tara-Ai公司聯(lián)合創(chuàng)始人兼首席執(zhí)行官Iba Masood表示,“人工智能從業(yè)者和機(jī)器學(xué)習(xí)工程師必須確保他們在一定程度上遵守算法責(zé)任制,IT主管應(yīng)該有專門的數(shù)據(jù)團(tuán)隊(duì)為他們現(xiàn)有的數(shù)據(jù)集構(gòu)建消除偏見的程序。這將有助于在利用系統(tǒng)進(jìn)行決策過程中,特別是在涉及最終消費(fèi)者的情況下,需要實(shí)現(xiàn)一定程度的公平和公正。”
這是一個道德和公平的問題。Masood認(rèn)為,人工智能倫理也可能成為一種競爭性的區(qū)分標(biāo)準(zhǔn)。
Masood說,“我相信,未來五年將會有更多的具有公平意識的消費(fèi)者,他們希望與那些在人工智能輔助下的決策過程中部署公平機(jī)制的公司進(jìn)行交易。通過努力減輕用于基于決策的系統(tǒng)的數(shù)據(jù)集的偏差,IT團(tuán)隊(duì)可以在這種消費(fèi)者行為轉(zhuǎn)變中產(chǎn)生重大影響。”
2.恐懼:人們不知道人工智能為什么會這么做
這是對未知事物的另一種自然恐懼:許多人工智能的結(jié)果很難解釋。
Nicholson說,“人工智能最先進(jìn)的形式能夠?qū)?shù)據(jù)做出最準(zhǔn)確的預(yù)測,但也最難解釋為什么做出這種預(yù)測。”
這有時被稱為人工智能的“黑盒”,指的是缺乏對人工智能系統(tǒng)決策的可視性,這對許多組織來說可能是一個重要的問題。
Nicholson說,“在許多情況下,人們都需要知道為什么要做某事。在受到嚴(yán)格監(jiān)管的行業(yè)組織中尤其如此。例如醫(yī)療保健行業(yè)不希望人工智能算法在不知道為什么做出決定的情況下就患者的診斷或治療做出決定。”
Cooper提供了另一個場景,指出黑盒模型在出現(xiàn)問題時變得特別重要。
Cooper說,“假設(shè)訓(xùn)練一種算法來挑選最佳股票,并且做得很好,可能賺取9%的利潤。如果在金融投資中獲得了足夠或更好的回報(bào)(如果Cooper的假設(shè)合理的情況下),那么可能就不太在乎其原因。畢竟已經(jīng)獲得。但是如果損失了9%的成本應(yīng)該怎么辦?如果失去了一切那么該怎么辦?人們可能會更關(guān)心的是為什么。”
他說,“問題在于,在許多情況下,人們不知道為什么要選擇它所選擇的東西。這很可怕,因?yàn)樗粌H使人們減少了與正在使用的人工智能系統(tǒng)的聯(lián)系,而且如果它做錯了什么,也不會帶來太多的洞察力。”
解決方法:
解決這種恐懼的最好方法之一是確保即使在人工智能技術(shù)得以改進(jìn)的情況下,人類的智能和決策仍然是任何過程中至關(guān)重要的部分,在某些情況下還是最終的部分。換句話說,即使人工智能在這些流程和決策中的作用不斷擴(kuò)展,也可以通過確保人們保留對流程和決策的適當(dāng)控制來緩解這種恐懼。
Nicholson說:“在醫(yī)療保健案例中,最好采用人工智能作為人類專家的決策支持形式。也就是說,不能讓人工智能獨(dú)自運(yùn)作并且不受監(jiān)督??梢詫⑷斯ぶ悄芗傻浆F(xiàn)有的決策過程中,在此過程中可以向人類專家提出建議,并且專家將是做出最終決策的人,他們將能夠解釋做出該決定的原因。”
3.恐懼:人工智能將會做出錯誤的決定
人工智能將會做出錯誤的決定,這是一個非常明確的問題。如何評估人工智能結(jié)果的準(zhǔn)確性和有效性?如果它做出錯誤的選擇會怎么樣?(可以看到這些恐懼的某些組合是如何產(chǎn)生復(fù)合效應(yīng)的:如果人工智能做出錯誤的決定而無法解釋原因,將會發(fā)生什么情況?)假設(shè)所有人工智能產(chǎn)生的結(jié)果都是“良好”的結(jié)果,那么即使是對于人工智能應(yīng)用最樂觀的人士也會感到不舒服。
偏見會導(dǎo)致錯誤的決定。不過,這實(shí)際上是一種更為廣泛的恐懼,這種恐懼除了其他負(fù)面影響之外,還可能導(dǎo)致團(tuán)隊(duì)不信任任何的人工智能得出的結(jié)果。當(dāng)人工智能團(tuán)隊(duì)之外的人(或者IT部門)分析結(jié)果時,這種可能性就更大。它還可能導(dǎo)致組織的業(yè)務(wù)發(fā)展停滯。
Very公司工程主管Jeff McGehee說,“許多人擔(dān)心人工智能會做出錯誤的決定。從技術(shù)角度來看,這種恐懼通常是非常廣泛的,但它總是歸結(jié)為人們認(rèn)為“這個決定是不正確的。對于從業(yè)者來說,這一點(diǎn)很難確定,尤其是在無法給出‘良好’決策的量化定義的情況下。”
解決方法:
人為因素的重要性再次占據(jù)主導(dǎo)地位。如果人們無法量化什么是積極的結(jié)果,那么需要提出一個定性的框架,同時確保依靠正確的人員和信息組合來解決諸如偏見之類的實(shí)際問題。
McGehee說:“為了確定這樣一個定義,利益相關(guān)者必須認(rèn)真考慮所有可能的關(guān)于好/壞決策的定義。正確性可能是理想的,但是某些類型的錯誤通常更容易接受,或者更像是人為的。此外,‘正確性’可能指的是人們是否滿足某些標(biāo)準(zhǔn)的預(yù)測列表,但如果此列表包含固有的人為因素偏見,這可能是一個不好的目標(biāo)。當(dāng)非技術(shù)利益相關(guān)者評估人工智能決策的質(zhì)量時,所有這些因素都可以發(fā)揮作用。”
4.恐懼:人工智能將導(dǎo)致匿名性的喪失
McGehee指出了一個鮮為人知的問題,它可能成為人工智能安全中一個更引人注目的領(lǐng)域:當(dāng)匿名性假定為給定時,將會喪失匿名性或隱私性。
McGehee說,“在以前,人工智能從業(yè)者普遍認(rèn)為,一旦機(jī)器學(xué)習(xí)模型得到訓(xùn)練,其權(quán)重(使其能夠進(jìn)行預(yù)測的參數(shù))就不包含任何可追蹤的訓(xùn)練數(shù)據(jù)。”然而,最近出現(xiàn)了一些技術(shù),這些技術(shù)將使惡意行為者能夠檢查經(jīng)過訓(xùn)練的機(jī)器學(xué)習(xí)模型,并對用于訓(xùn)練的各個數(shù)據(jù)點(diǎn)進(jìn)行有意義的推斷。這與個人數(shù)據(jù)點(diǎn)是否是希望保持匿名的人有關(guān)。”
解決方法:
同樣,通過認(rèn)識到恐懼背后的合法問題,人們可以采取措施來解決它。在必要時保護(hù)數(shù)據(jù)的隱私或匿名性是一個組織可以采取主動措施作為其總體安全策略一部分的領(lǐng)域。這也是機(jī)器學(xué)習(xí)中正在進(jìn)行的一個研究和開發(fā)領(lǐng)域。
McGehee說,“雖然這是一種有效的恐懼,但對模型權(quán)重進(jìn)行適當(dāng)?shù)谋Wo(hù)和加密可以減少它們落入壞人手中的可能性,而創(chuàng)造不易受這種威脅影響的新的機(jī)器學(xué)習(xí)技術(shù)將是一個活躍的研究領(lǐng)域。”
5.恐懼:人工智能會讓人們失業(yè)
人們可能面臨這個最大的恐懼,它彌合了當(dāng)前現(xiàn)實(shí)和更多推測場景。大多數(shù)專家都認(rèn)為,人工智能將會取代更多的工作崗位。在某些情況下,這將意味著失業(yè)。
在可預(yù)見的未來,越來越多的人工智能(以及更廣泛的自動化)的應(yīng)用比電腦時代更為廣泛,當(dāng)時電腦的興起也引發(fā)了人們類似的擔(dān)憂。研究發(fā)現(xiàn),電腦在影響工作崗位的同時創(chuàng)造了更多的工作崗位。
解決方法:
Nicholson說,“從歷史上看,新技術(shù)不僅使工作實(shí)現(xiàn)自動化,而且可能帶來新的工作崗位??紤]一下采用電腦完成的所有工作。新技術(shù)通常需要人們對其進(jìn)行掌握、支持和維護(hù),而人工智能也不例外。”
積極應(yīng)對這種恐懼將是人工智能在商業(yè)領(lǐng)域成功的關(guān)鍵,否則人們將無法參與其中。人們將會注意到,以上這些不僅要求人類參與其中,還要積極管理組織中的人工智能。
Nicholson說,“需要理解的關(guān)鍵是,未來的工作將是人類與機(jī)器之間的協(xié)作。但是機(jī)器仍然需要人類來操作和維護(hù)。人工智能就是如此。”