打破人工智能算法黑箱

責(zé)任編輯:ycao

2018-03-12 13:23:14

摘自:36氪

人工智能算法的輸出,并不會比自然現(xiàn)象更難以分析和解釋。

AlphaGo戰(zhàn)勝了人類頂尖圍棋選手,無人駕駛汽車開始在公路上運(yùn)行,擅長聊天的機(jī)器人可以成為你的朋友,人工智能離我們越來越近,帶來很多希望的同時也引起了不少的憂慮和質(zhì)疑,因?yàn)樽屓嗣煌傅膹?fù)雜算法就像是一個黑箱。那么這個黑箱究竟應(yīng)不應(yīng)該被打破?又該如何打破呢?

人工智能的挑戰(zhàn)已經(jīng)到來

自去年AlphaGo戰(zhàn)勝人類頂尖圍棋手之后,人工智能這一概念真正成為了社會各界關(guān)注的焦點(diǎn),也為各國政府所重視。

今天各類人工智能相關(guān)系統(tǒng)以深度學(xué)習(xí)算法為突出代表,憑借當(dāng)今計(jì)算機(jī)系統(tǒng)及云計(jì)算平臺提供的強(qiáng)大計(jì)算能力,以及欣欣向榮的傳統(tǒng)和移動互聯(lián)網(wǎng)、物聯(lián)網(wǎng)所帶來的日益豐富多樣的數(shù)據(jù)資源,為人們提供了一幅可信的發(fā)展圖景,相應(yīng)的算法已在許多領(lǐng)域付諸使用,引起了無限熱情期盼,也帶來了眾多質(zhì)疑和擔(dān)憂。

無論期盼或是擔(dān)憂,我們都正在見證著一個新的信息時代的開啟。在這個時代,許多讓我們一時還琢磨不透的人工智能算法,在進(jìn)行著認(rèn)知、學(xué)習(xí)、預(yù)測和決策,可能為我們提供醫(yī)療、法律、金融等方面的建議或決策,也可能直接操控汽車、無人機(jī),甚至大規(guī)模殺傷性武器。如果回顧信息技術(shù)的發(fā)展歷程,我們有理由相信,這一次技術(shù)創(chuàng)新和應(yīng)用推廣的發(fā)展速度也許會超乎我們的想象。

人們常說,法律總是滯后于社會發(fā)展。面對互聯(lián)網(wǎng)技術(shù)帶來的社會影響,我們剛剛建立起有一定體系的理論和規(guī)范,人工智能的挑戰(zhàn)就已經(jīng)到來。這一次,在政府、產(chǎn)業(yè)、資本和學(xué)術(shù)界的共力之下,面對人工智能可能帶來的巨大社會影響,恐怕并無太多時間留給法律和政策制定者來慢慢觀察和考量。

追求可解釋性依然是我們信賴的思維模式

在時下熱議的人工智能相關(guān)倫理、算法歧視、算法正確性、安全性等問題中,有一個問題被時常提起,即以深度學(xué)習(xí)算法為代表的人工智能算法的可解釋性問題。

人類理性的發(fā)展歷程使我們相信,如果一個判斷或決策是可以被解釋的,我們將更容易了解其優(yōu)點(diǎn)與不足,更容易評估其風(fēng)險,知道其在多大程度上、在怎樣的場合中可以被信賴,以及我們可以從哪些方面對其進(jìn)行不斷改善,以盡量增進(jìn)共識、減少風(fēng)險,推動相應(yīng)領(lǐng)域的不斷發(fā)展。這樣的思維范式或許是誕生在人工智能時代之前的稍顯過時的思維模式。

例如舍恩伯格等在《大數(shù)據(jù)時代:生活、工作與思維的大變革》一書中就提出,大數(shù)據(jù)技術(shù)引發(fā)思維變革;應(yīng)更為關(guān)注事務(wù)之間的相關(guān)關(guān)系,而不是探索因果關(guān)系1?;蛟S隨著科技和社會的發(fā)展,未來會演化出新的思維范式,但目前這仍然是我們最成熟、最具共識、最可信賴的思維模式,我們?nèi)匀恍枰軌驅(qū)χ匾獑栴}的決策作出解釋。

由此,許多國家和地區(qū)已經(jīng)開始探索在一些法規(guī)中對此予以一定的回應(yīng)。IEEE、ACM等行業(yè)協(xié)會和計(jì)算機(jī)科學(xué)家們也在積極行動,以期促進(jìn)算法的可解釋性。

例如,IEEE協(xié)會2016年的關(guān)于人工智能及自動化系統(tǒng)的倫理設(shè)計(jì)白皮書中,在多個部分都提出了對人工智能和自動化系統(tǒng)應(yīng)有解釋能力的要求。

美國計(jì)算機(jī)協(xié)會美國公共政策委員會也在2017年初發(fā)布了《關(guān)于算法透明性和可問責(zé)性的聲明》(Statement on Algorithmic Transparency and Accountability),提出了七項(xiàng)基本原則,其中之一即為“解釋:鼓勵使用算法決策的系統(tǒng)和機(jī)構(gòu)對算法過程和特定決策提供解釋。這在公共政策中尤為重要”。

2017年10月,美國加州大學(xué)伯克利分校的研究者們發(fā)布了《對人工智能系統(tǒng)挑戰(zhàn)的伯克利觀點(diǎn)》2一文,從人工智能的發(fā)展趨勢出發(fā),總結(jié)了九項(xiàng)挑戰(zhàn)和研究方向,其中一項(xiàng)即為“可解釋的決策”。

該文中特別指出,在一些領(lǐng)域,人們希望知道人工智能程序的特定輸入所具有的哪些性質(zhì)導(dǎo)致了特定的輸出結(jié)果。

例如,人們可能希望知道,一個X光片中的哪些特征(例如大小、顏色、位置、形式等),導(dǎo)致了特定的診斷結(jié)果,以及這些特征的小擾動會使診斷結(jié)果發(fā)生怎樣的變化;還有哪些類型的輸入會導(dǎo)致類似的診斷結(jié)果,等等。

人工智能的算法黑箱并不會比自然現(xiàn)象更難以分析

▲機(jī)器學(xué)習(xí)是人工智能的一種途徑或子集,它強(qiáng)調(diào)“學(xué)習(xí)”而不是計(jì)算機(jī)程序,一個系統(tǒng)可以從自身的錯誤中學(xué)習(xí)來提高它的模式識別能力。

這些看法認(rèn)為增強(qiáng)人工智能算法的可解釋性具有積極意義,但是,增強(qiáng)可解釋性是否是可能的呢?

誠然,以深度學(xué)習(xí)為代表的人工智能算法經(jīng)常被描述成一個無人理解的黑箱。但正如萊西格(Lawrence Lessig)教授在其經(jīng)典著作《Code 2.0:網(wǎng)絡(luò)空間中的法律》中所反復(fù)強(qiáng)調(diào)的,當(dāng)前技術(shù)本身是怎樣,并不等同于技術(shù)必須是怎樣。實(shí)際上人工智能算法的輸出仍然是由數(shù)據(jù)和代碼決定的,并不會比自然現(xiàn)象更難以分析和解釋,更何況其設(shè)計(jì)者還可以通過一些機(jī)制從內(nèi)部增強(qiáng)其可解釋性。

一方面,人們可以研究如何更好地從觀察的角度來解釋人工智能算法。我們至少可以將人工智能算法作為一個客觀事物來進(jìn)行觀察、實(shí)驗(yàn)和分析。

例如,我們可以通過觀察算法對于不同輸入所產(chǎn)生的輸出,來嘗試了解其規(guī)律。更進(jìn)一步地,對于比較復(fù)雜的人工智能算法系統(tǒng),人們也可以通過搭建一套自動測試分析系統(tǒng)來進(jìn)行輔助分析。

其實(shí)法學(xué)界就有研究者進(jìn)行過初步的相關(guān)研究。例如,新加坡國立大學(xué)法學(xué)院的Seng Kiat Boon教授在斯坦福大學(xué)學(xué)習(xí)期間做了一個有意思的研究工作,針對網(wǎng)絡(luò)上侵犯知識產(chǎn)權(quán)內(nèi)容的“通知-刪除”規(guī)則的自動處理系統(tǒng)進(jìn)行了分析。

在現(xiàn)在的技術(shù)背景下,很多知識產(chǎn)權(quán)人及各類維權(quán)代理機(jī)構(gòu)會借助一定的技術(shù)手段,讓軟件自動檢測網(wǎng)絡(luò)上的侵權(quán)內(nèi)容,并自動向網(wǎng)絡(luò)平臺發(fā)送發(fā)現(xiàn)侵權(quán)內(nèi)容、要求刪除的通知;面對每天接收到的大量侵權(quán)通知,很多平臺已經(jīng)從主要依靠人工受理轉(zhuǎn)變?yōu)槔盟惴▉碜詣犹幚怼?/p>

Seng教授采用一些基本的技術(shù)方法,從網(wǎng)上資源庫中收集和分析了超過50萬個“通知-刪除”實(shí)例,來剖析谷歌等平臺的“通知-刪除”自動處理系統(tǒng)的特性3。當(dāng)然,這個例子中只是運(yùn)用了簡單的技術(shù)手段,但相信未來的一個方向是,人們可以用信息技術(shù)來解析信息技術(shù),用算法來輔助理解算法。

在這一方面,除了系統(tǒng)設(shè)計(jì)者自身,社會上的相關(guān)用戶、研究者以及新聞記者都可能進(jìn)行相關(guān)分析研究。分析能力和分析條件的提高也將是問題研究、社會監(jiān)督的重要支撐。

另一方面,可以研究如何更好地設(shè)計(jì)兼顧可解釋性的算法和系統(tǒng)。在傳統(tǒng)軟件錯誤檢測實(shí)踐方面,軟件工程師們可能通過在算法中加入特定調(diào)試語句來記錄調(diào)試信息,或者在編譯程序時編譯為調(diào)試模式,幫助自己或其他軟件工程師理解程序代碼執(zhí)行的情況、各個關(guān)鍵變量的變化情況,等等,從而幫助定位算法錯誤。很多計(jì)算機(jī)硬件也提供一定的調(diào)試支持。

在設(shè)計(jì)人工智能算法和系統(tǒng)時,也同樣可以加入一些增強(qiáng)可解釋性的模塊,并利用人工或機(jī)器輔助來進(jìn)行解釋?!秾θ斯ぶ悄芟到y(tǒng)挑戰(zhàn)的伯克利觀點(diǎn)》一文中,加州伯克利大學(xué)的研究者們就提出,支持可解釋決策的一個要素是人工智能系統(tǒng)能夠記錄和忠實(shí)重現(xiàn)導(dǎo)致特定決策結(jié)果的計(jì)算過程。

由此,應(yīng)該來研究能夠支持交互式診斷分析的人工智能系統(tǒng),忠實(shí)重現(xiàn)過去的執(zhí)行情況,幫助確定輸入中的哪些特征導(dǎo)致了特定結(jié)果,并在可能的情況下為因果推理提供系統(tǒng)支持。

當(dāng)然,這樣的方式可能導(dǎo)致算法運(yùn)行速度的降低,甚至一些輔助機(jī)制可能影響算法的精確度。因此,研究者們需要在這一領(lǐng)域深耕細(xì)作,不斷提出在可解釋性和算法效率等方面均令人滿意的方案。

此外,亦有學(xué)者建議,將關(guān)鍵決策過程中使用的人工智能算法開源,并公開相關(guān)數(shù)據(jù)。這無疑是增加透明性和可解釋性的一種途徑,但并不是增強(qiáng)算法可解釋性的徹底解決方案,也涉及許多其他問題。

一方面,這可能涉及企業(yè)的商業(yè)秘密、個人隱私等問題,并不適用于全部場景;另一方面,代碼和數(shù)據(jù)開放本身并不意味著就滿足了社會對于算法可解釋性的需求。

我們可以看到,很多擁有數(shù)據(jù)和代碼的企業(yè)都無法直接對自己的算法做出充分解釋。在兼顧可解釋性的算法和系統(tǒng)設(shè)計(jì)以及配套解釋方法和工具方面,仍然需要深入研究。

多種途徑加強(qiáng)對可解釋性的研究和推廣

那么,我們可以如何來促進(jìn)支撐算法可解釋性的相關(guān)研究呢?

研究者的興趣自然是一項(xiàng)重要動力。除此之外,政府的鼓勵和支持、行業(yè)的倫理和規(guī)范、市場的需求以及相關(guān)知識產(chǎn)權(quán)帶來的激勵、法律法規(guī)的要求等,都可能成為激勵算法可解釋性相關(guān)研究的措施。

如果我們把目光投向軟件正確性驗(yàn)證及安全性保障領(lǐng)域,可以看到,盡管有研究興趣、一定的市場需求和知識產(chǎn)權(quán)的激勵,而且在測試方法等方面確實(shí)不斷有新的研究,但相應(yīng)的研究開展程度遠(yuǎn)不及信息技術(shù)的其他很多領(lǐng)域。

一方面這可能由于問題本身的困難性,另一方面也反映出僅憑研究興趣和簡單的市場和知識產(chǎn)權(quán)激勵,并不足以推動其充分發(fā)展。對于消費(fèi)類軟件的錯誤、漏洞,人們已司空見慣;時不時的系統(tǒng)崩潰,大家也都習(xí)以為常。

可是,消費(fèi)類軟件中的錯誤或許并不會引起過多的問題和嚴(yán)重?fù)p害,但在當(dāng)前及未來的一些關(guān)鍵領(lǐng)域和情境下,人工智能系統(tǒng)卻可能影響人的基本權(quán)利、自由和生命安全。

由此,在既有激勵的基礎(chǔ)上,我們有必要通過行業(yè)的倫理規(guī)范和標(biāo)準(zhǔn)、政府的鼓勵和支持、適當(dāng)?shù)姆韶?zé)任分配以及監(jiān)管機(jī)制等多種途徑,來加強(qiáng)對人工智能算法可解釋性的研究和應(yīng)用推廣。

算法的可解釋性是我們更好地掌握和控制人工智能的基礎(chǔ)。美國華盛頓大學(xué)法學(xué)院的Ryan Calo曾提出,跨學(xué)科實(shí)用主義的傳統(tǒng)或許是網(wǎng)絡(luò)法最偉大的遺產(chǎn)4。

在信息技術(shù)高速發(fā)展的今天,法律和政策研究者除了將目光投向其宏觀特性,也應(yīng)該對相應(yīng)的變化有所了解,并進(jìn)行積極影響,使其更好地服務(wù)于我們的社會,推進(jìn)人類追求的美好價值的實(shí)現(xiàn)。

Luke Dormehl在《算法時代》中將算法比喻成船只。“船只的發(fā)明同時帶來了海難??但算法同時也發(fā)揮了極其重要的作用,幫助我們在每天產(chǎn)生的多達(dá)2.5艾字節(jié)(是人腦信息儲存量的100萬倍)的數(shù)據(jù)海洋中航行,并得出切實(shí)可行的結(jié)論。”Sara Baase教授在《火的禮物:人類與計(jì)算技術(shù)的終極博弈》一書中將計(jì)算技術(shù)比作火。

火“使我們的生活更加舒適、健康和愉快。而它同時也擁有巨大的破壞力,有可能因?yàn)橐馔猓部赡苁枪室饪v火??漸漸地,我們已經(jīng)學(xué)會如何高效地使用它,如何安全地使用它,以及如何更有效地應(yīng)對災(zāi)難,無論是自然的、意外的,亦或是故意造成的。”期待通過共同努力,我們可以更好地掌握人工智能算法,來幫助我們解決各種難題,建設(shè)更加美好的社會。

1.[英] 維克托·邁爾-舍恩伯格、肯尼思·庫克耶: 《大數(shù)據(jù)時代: 生活、工作與思維的大變革》,盛楊燕、周濤譯,浙江人民出版社2012 年版。

2.Ion Stoica, etc., “A Berkeley View of Systems Challenges for AI”, Technical Report No. UCB/EECS-2017-159, http://www2.eecs.berkeley.edu/Pubs/TechRpts/2017/EECS-2017-159.html, October 16, 2017.

3.參見Seng, Daniel Kiat Boon, 'Who Watches the Watchmen?' An Empirical Analysis of Errors in DMCA Takedown Notices (January 23, 2015). Available at SSRN: https://ssrn.com/abstract=2563202. Seng, Daniel Kiat Boon, The State of the Discordant Union: An Empirical Analysis of DMCA Takedown Notices (Jan 31, 2014). 18 Va. J. L. & Tech. 369 (2014).

4.Ryan Calo, “Robotics and the Lessons of Cyberlaw”. California Law Review, Vol. 103, No. 3, pp. 513-63 (2015)

鏈接已復(fù)制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號-6京公網(wǎng)安備 11010502049343號