隨著人工智能的應用越來越廣泛,人們發(fā)現(xiàn)很難駕馭,對于采用人工智能的承諾在很大程度上還沒有實現(xiàn)。雖然人工智能相關技術仍在不斷涌現(xiàn),但并未成為所承諾的那樣成為一種普遍力量。以下查看一下令人信服的統(tǒng)計數(shù)據(jù),以證實人工智能技術的發(fā)展:
•自2000年以來,人工智能創(chuàng)業(yè)公司數(shù)量增加了14倍。
•自2000年以來,風險投資公司對人工智能初創(chuàng)企業(yè)的投資增長了6倍。
•自2013年以來,需要人工智能技能的工作比例增長了4.5倍。
截至2017年,Statista公司發(fā)布了以下調(diào)查結果:截至去年,全球只有5%的企業(yè)將人工智能廣泛納入其流程和產(chǎn)品中,32%的企業(yè)尚未采用,22%的企業(yè)沒有計劃采用。
截至2017年,全球商業(yè)組織的人工智能(AI)采用水平
Filip Pieniewski最近在行業(yè)媒體Venturebeat發(fā)表的文章中表示:“人工智能的冬天即將來臨”。
如今,這種情況正在發(fā)生變化。從表面上看,神經(jīng)信息處理系統(tǒng)大會(NIPS)會議仍然座無虛席,企業(yè)的新聞稿中仍然發(fā)布很多關于人工智能的文章,特斯拉公司創(chuàng)始人伊隆•馬斯克仍然致力于開發(fā)和研究具有前途的自動駕駛汽車,谷歌公司不斷推動Andrew Ng的線路,認為人工智能產(chǎn)業(yè)規(guī)模將比電力行業(yè)更大。但這種敘述開始讓人質疑。
人們對自動駕駛汽車很感興趣。但在今年春天,一輛自主駕駛車輛撞死一名行人,這引發(fā)了人們的質疑,并對自動化系統(tǒng)決策背后的道德規(guī)范表示懷疑。自動駕駛車輛問題并不是拯救汽車乘客生命一種簡單的二元選擇,可能將演變成對于良心、情感和感知的爭論,這使機器做出合理決定的路徑變得復雜。
Karen的文章指出:全自動駕駛汽車的夢想可能比人們意識到的還要遙遠。人工智能專家越來越擔心,在自動駕駛系統(tǒng)能夠可靠地避免事故之前,可能需要數(shù)年甚至數(shù)十年的探索。
Karen解釋說,以歷史作為預測因素,云計算行業(yè)和網(wǎng)絡行業(yè)在開始以顯著的方式影響人們工作和生活之前花費了大約5年時間,幾乎需要10年的時間才影響市場的重大轉變。人們正在設想人工智能技術的類似時間表。
為了讓每個人都能夠采用,需要一個可擴展的產(chǎn)品和一個可供所有人使用的產(chǎn)品,而不僅僅是數(shù)據(jù)科學家。該產(chǎn)品需要考慮捕獲數(shù)據(jù),準備數(shù)據(jù),訓練模型,以及預測的數(shù)據(jù)生命周期。隨著數(shù)據(jù)存儲在云中,數(shù)據(jù)管道可以不斷提取并準備它們來訓練將進行預測的模型。模型需要不斷改進新的訓練數(shù)據(jù),這反過來將使模型保持相關性和透明性。這就是目標和承諾。
在沒有重大用例的情況下構建人工智能概念證明
Karen在人工智能初創(chuàng)企業(yè)中工作,其所見證的以及與同行討論時都是廣泛的人工智能實驗,涉及多個業(yè)務問題,這些問題往往停留在實驗室中。
最近他發(fā)布的一篇文章證實了如今人工智能試點項目的普遍性。文章指出,“人工智能技術的供應商經(jīng)常受到激勵,使他們的技術聽起來比實際能力更強——但暗示著比實際擁有更多的真實世界的吸引力......企業(yè)中的大多數(shù)人工智能應用只不過是一種試點。”供應商推出銷售營銷解決方案、醫(yī)療保健解決方案和人工智能的財務解決方案只是為了驅動人工智能技術得到人們越來越多的關注。在任何給定的行業(yè)中,人們發(fā)現(xiàn)在銷售人工智能軟件和技術的數(shù)百家供應商公司中,只有大約三分之一的公司真正擁有知識和技術開展人工智能的探索和研究。
風險投資商意識到他們可能在一段時間內(nèi)看不到投資回報。然而,很少有模型進行普遍的實驗只是人工智能尚未準備好迎接廣泛應用的原因之一。
算法可以為此負責嗎?
人們也許聽說過人工智能“黑盒”, 這是一種無法確定決策的方法。這種做法將面向銀行和大型機構,這些機構具有強制執(zhí)行問責制的合規(guī)標準和政策。在系統(tǒng)作為黑盒運行,只要這些算法的創(chuàng)建已經(jīng)通過審核,并且已經(jīng)由關鍵利益相關者滿足某些標準,就可能存在對算法的固有信任。鑒于壓倒性的生產(chǎn)算法以及由此產(chǎn)生的意外和有害結果的壓倒性證據(jù),這一概念很快就受到了質疑。由于企業(yè)保密措施不當,缺乏足夠的教育和理解,很難批判性地對投入、結果以及為什么會出現(xiàn)這些結果進行檢查,企業(yè)的許多簡單系統(tǒng)都像超出了任何有意義審查范圍的黑盒一樣運行。
如今的人工智能行業(yè)正處于企業(yè)準備就緒的早期階段。人工智能非常有用,可以用于發(fā)現(xiàn)并幫助解析大量數(shù)據(jù),但是仍然需要人工干預作為評估和處理數(shù)據(jù)及其結果的指南。
Karen解釋說,如今的機器學習技術可以標記數(shù)據(jù)以識別洞察力。但是,作為此過程的一部分,如果某些數(shù)據(jù)被錯誤地標記,或者如果沒有足夠的數(shù)據(jù)表示,或者存在有問題的數(shù)據(jù)表示有偏差,則可能會發(fā)生錯誤的決策結果。
他還指出目前的流程需要不斷完善:目前,人工智能完全是一種關于決策支持以提供對業(yè)務可以得出結論的見解。在人工智能發(fā)展的下一階段,它可以實現(xiàn)數(shù)據(jù)中的自動化操作,還有其他需要解決的問題,如偏見、可解釋性、隱私、多樣性、道德規(guī)范和持續(xù)模型學習。
Karen以一個人工智能模型為例進行了說明,當圖像標題暴露了通過訓練學到的知識時,可以看到錯誤,這些圖像用他們所包含的對象標記。這表明,人工智能產(chǎn)品需要具有常識世界模型的對象和人才才能真正理解。僅暴露于有限數(shù)量的標記對象且訓練集中的有限多樣性將限制這個常識世界模型的有效性。企業(yè)需要研究確定模型如何處理其輸入,并以人類可理解的術語得出結論。亞馬遜公司發(fā)布了面部識別技術Rekognition,這是目前正在生產(chǎn)并獲得許可使用的技術的一個例子,同時其效果存在明顯差距。
算法正義聯(lián)盟的創(chuàng)始人Joy Buolamwini呼吁暫停這項技術,聲稱它無效,并且需要更多的監(jiān)督,呼吁在公開發(fā)布這些系統(tǒng)之前將更多的政府標準納入這些類型的系統(tǒng)。
人工智能的主要障礙:心態(tài)、文化和遺產(chǎn)
傳統(tǒng)系統(tǒng)轉型是當今許多組織實施人工智能的最大障礙。心態(tài)和文化是這些傳統(tǒng)系統(tǒng)的組成部分,它們提供了對已建立的流程、價值觀和業(yè)務規(guī)則的系統(tǒng)觀點,這些規(guī)則不僅包括組織的運作方式,還包括為什么這些根深蒂固的元素會給業(yè)務帶來重大障礙的原因,尤其是在目前很好的情況下。因此,很多企業(yè)目前沒有動力去放棄基礎設施。
人工智能是業(yè)務轉型的一個組成部分,雖然這個主題與人工智能炒作一樣得到了一些人的質疑,但實現(xiàn)重大變革所需的投資和承諾卻猶豫不決。有一些愿意嘗試特定用例的公司,但卻沒有準備好培訓、重新設計流程和改進治理和企業(yè)政策的要求。對于被迫進行這些重大投資的大型組織而言,問題不應該是投資回報,而是可持續(xù)的競爭優(yōu)勢。
數(shù)據(jù)完整性的問題
人工智能如今需要大量數(shù)據(jù)才能產(chǎn)生有意義的結果,但卻無法利用其他應用程序的體驗。雖然Karen認為行業(yè)廠商正在進行的工作是為了克服這些限制,但在以可擴展的方式應用模型之前,需要轉移學習。然而,有些場景可以有效地使用人工智能,例如透露圖像、語音、視頻和翻譯語言的見解。
企業(yè)正在學習的重點應放在:
(1)數(shù)據(jù)的多樣性,包括跨群體的適當表現(xiàn)。
(2)確保創(chuàng)建算法的多樣化體驗、觀點和思考。
(3)優(yōu)先考慮數(shù)據(jù)的質量而不是數(shù)量
Karen c承認這些都是重要的,特別是隨著偏見的引入以及對數(shù)據(jù)的信任的降低。例如,土耳其語是一種性別中立的語言,但谷歌翻譯中的人工智能模型在轉譯成英語時錯誤地預測了性別。同樣在癌癥診療中,人們發(fā)現(xiàn)人工智能圖像識別只在皮膚白皙的人身上進行訓練。從其計算機視覺示例中,Joy Buolamwini測試了這些人工智能技術,并意識到它們在男性與女性之間以及在膚色較淺與較深的皮膚有效工作的差別。“男性的錯誤率低至1%,黑人女性的錯誤率高達35%。”由于未能使用不同的訓練數(shù)據(jù),因此出現(xiàn)了這些問題。
人工智能的概念很簡單,但是通過攝取越來越多的真實世界數(shù)據(jù),算法變得更加智能,然而能夠解釋決策變得極其困難。數(shù)據(jù)可能是不斷變化的,人工智能模型需要過濾器來防止錯誤的標記,例如一個黑人被標記為大猩猩或者將熊貓標記為長臂猿的圖像。依靠錯誤數(shù)據(jù)做出決策的企業(yè)會導致不明智的結果。
幸運的是,鑒于人工智能的初衷,很少有組織正在根據(jù)當今的數(shù)據(jù)做出重大的業(yè)務決策。從人們看到的情況來看,大多數(shù)解決方案主要是產(chǎn)品推薦和個性化營銷傳播。由此產(chǎn)生的任何錯誤結論都會產(chǎn)生較少的社會影響,至少目前如此。
使用數(shù)據(jù)做出業(yè)務決策并不新鮮,但改變的是使用的結構化和非結構化數(shù)據(jù)的數(shù)量和組合的指數(shù)級增長。人工智能使人們能夠持續(xù)使用來自其來源的數(shù)據(jù),并更快地獲得洞察力。對于具有處理來自不同來源的數(shù)據(jù)量的能力和結構的企業(yè)來說,這是一個機會。但是,對于其他組織而言,大量數(shù)據(jù)可能代表風險,因為不同的來源和格式使得信息轉換變得更加困難:電子郵件、系統(tǒng)日志、網(wǎng)頁、客戶成績單、文檔、幻燈片、非正式聊天、社交網(wǎng)絡,以及爆炸性的富媒體(如圖像和視頻)。數(shù)據(jù)轉換仍然是開發(fā)清潔數(shù)據(jù)集的絆腳石,因此也是有效的模型。
偏見比人們意識到的更為普遍
許多商業(yè)模式中存在偏差,需要最大程度地降低風險評估,優(yōu)化目標機會,雖然它們可能產(chǎn)生有利可圖的業(yè)務成果,但它們也可能會導致意外后果,從而加大經(jīng)濟差異。保險公司可以使用位置信息或信用評分數(shù)據(jù)向客戶收取不同的保險費用。銀行可能會拒絕信用評分較低的潛在客戶,他們已經(jīng)債務纏身,但可能無力承擔較高的貸款利率。
由于采用人工智能不僅會使現(xiàn)有的偏見持續(xù)下去,而且會導致經(jīng)濟和社會鴻溝的加深,因此對偏見的警惕性越來越高。偏見在當前算法中呈現(xiàn),以確定再犯的可能性。由一家名為Northpointe的機構創(chuàng)建的修正罪犯的管理分析替代性制裁(COMPAS)。COMPAS的目標是評估庭審聽證會中被告的犯罪風險和預測。在最初的COMPAS研究中使用的問題類型揭示了人類偏見,即該制度延續(xù)了對待黑人的建議,他們可能會繼續(xù)犯罪,因此對他們采用的法律比白人被告更加嚴厲,而白人繼續(xù)重新犯罪在量刑時將被寬大處理。由于沒有公共標準,Northpointe公司創(chuàng)建自己的公平定義,并開發(fā)一種沒有第三方評估的算法。
如果這個軟件僅僅像未受過訓練的人在線調(diào)查那樣精確,那么人們認為法院在作出判決時應該考慮是否公平。雖然人們嘗試修復現(xiàn)有系統(tǒng)以最大限度地減少這種偏差,但模型對不同數(shù)據(jù)集進行訓練以防止未來的危害至關重要。
鑒于潛在的商業(yè)和社會模型存在潛在風險,企業(yè)沒有治理機制來監(jiān)督不公平或不道德的決策,這些決定將無意中影響最終消費者。這是在道德規(guī)范下進行討論的。
日益增長的隱私需求
Karen與強大的研究和數(shù)據(jù)團隊合作,這些團隊能夠在整個平臺上對用戶的行為進行情境化,不斷研究用戶行為,并了解他們在音樂、主頁、生活方式、新聞等眾多屬性中的傾向。而并沒有嚴格的數(shù)據(jù)使用標準或規(guī)定。隱私被降級為平臺條款和條件的用戶被動協(xié)議。
最近的劍橋分析公司和Facebook公司的數(shù)據(jù)泄露丑聞使個人數(shù)據(jù)隱私得到了更多人的關注。Equifax公司等主要信貸機構頻繁發(fā)生數(shù)據(jù)泄露事件。因此,數(shù)據(jù)所有權、同意和錯誤的情境化問題使得其成為一個重要的主題,因為人工智能將繼續(xù)解決其問題。歐洲通用數(shù)據(jù)保護條例(GDPR)于2018年5月25日生效,將改變組織的游戲規(guī)則,特別是那些收集、存儲和分析個人用戶信息的組織。它將改變多年來經(jīng)營業(yè)務的規(guī)則。個人信息的無節(jié)制使用已經(jīng)達到了頂峰,因為企業(yè)現(xiàn)在將認識到在數(shù)據(jù)使用上存在重大限制。更重要的是,所有權將受到嚴重限制。
人們看到這對廣告推廣的影響。規(guī)模高達750億美元的廣告行業(yè)預計將在2018~2021年以21%的復合年增長率增長,但仍然面臨Facebook公司和谷歌公司等行業(yè)寡頭壟斷的阻礙。如今實施的GDPR法規(guī)讓這些廣告科技公司面臨更重大的風險與責任:其利害關系足夠大,以至于廣告商必須非常高度自信,因為對用戶所告知的實際上是合規(guī)的。對于最終構成違規(guī)的行為似乎有足夠的普遍混淆,人們正在采取廣泛的方法,直到可以準確了解合規(guī)性是什么。
雖然法規(guī)的監(jiān)管最終會削弱收入,但至少在目前,移動和廣告平臺行業(yè)也面臨著越來越嚴格的審查,因為他們多年來一直將消費者作為實現(xiàn)貨幣化的主題。這與對既定實踐的審查相結合,將迫使行業(yè)轉變其在收集、匯總、分析和共享用戶信息方面的做法。
實現(xiàn)隱私需要時間、重大投資(需要更多關注的話題),以及影響組織政策、流程和文化的思維方式的變化。
人工智能與倫理學的必然耦合
人工智能的主要因素確保了社會效益,包括簡化流程、增加便利性、改進產(chǎn)品和服務,以及通過自動化檢測潛在危害。放棄后者意味著可以根據(jù)更新的制造流程、服務和評估解決方案、生產(chǎn)以及產(chǎn)品質量來輕松地測量輸入/輸出。
Tech Cos面對AICB Insights的道德規(guī)范
除了個人隱私問題之外,如今人們看到了一些創(chuàng)新的例子,這些創(chuàng)新與不合情理的邊界相悖。如前所述,谷歌公司決定向美國國防部提供人工智能技術以分析無人機拍攝的內(nèi)容,其目的是在一個名為“Maven計劃”的項目中創(chuàng)建一個復雜的系統(tǒng)來監(jiān)視城市各個角落。一些員工離職以抗議谷歌公司的決定。
決策者和監(jiān)管機構需要灌輸新的流程和政策,以正確評估人工智能技術的使用方式、用于什么目的,以及流程中是否存在意外后果。 Karen指出了在確定人工智能算法中數(shù)據(jù)使用時需要考慮的新問題:
那么人們?nèi)绾螜z測敏感數(shù)據(jù)字段并對其進行匿名處理,并同時保留數(shù)據(jù)集的重要功能?人們能否在短期內(nèi)培訓合成數(shù)據(jù)作為替代方案?在創(chuàng)建算法時,人們需要問自己:需要哪些數(shù)據(jù)來提供想要的結果?此外,人們應該創(chuàng)建哪些參數(shù)來定義模型中的“公平性”,這意味著處理方式有何不同?如果是這樣,為什么?人們?nèi)绾卧谙到y(tǒng)中持續(xù)監(jiān)控這一點?
人工智能的冬季可能是為人工智能做好準備的機會
人工智能技術已經(jīng)走過了漫長的道路,但仍需要更多時間才能發(fā)展成熟。在日益增加的自動化和有意識地提高認知計算能力的世界中,即將到來的人工智能的冬天為企業(yè)提供了必要的時間來確定人工智能如何適應他們的組織以及想要解決的問題。人工智能即將出現(xiàn)的損失需要在政策、治理及其對個人和社會的影響中加以解決。
人工智能技術在下一次工業(yè)革命中的影響要大得多,因為其普遍性將在人們的生活中變得更加微妙。行業(yè)專家Geoff Hinton、Fei Fei Lee和Andrew Ng對人工智能的觀點呼吁人工智能重置,因為深度學習尚未證明可擴展。人工智能技術所做出的承諾并沒有減弱,而是對其實際到來的期望被推遲了,可能是5到10年。人們有時間在深度學習、其他人工智能方法以及有效地從數(shù)據(jù)中提取價值的過程中解決這些問題。商業(yè)準備、監(jiān)管、教育和研究的高潮是實現(xiàn)業(yè)務和消費者加速發(fā)展的必要條件,并確保建立適當限制技術的監(jiān)管體系。