分享 | 關(guān)于人工智能的憂思

責(zé)任編輯:zsheng

2018-05-30 19:18:55

摘自:36氪

人工智能的研究是當(dāng)前科技領(lǐng)域的一大熱點,任何有關(guān)機器學(xué)習(xí)的新聞都能夠吸引人們足夠的關(guān)注。

人工智能的研究是當(dāng)前科技領(lǐng)域的一大熱點,任何有關(guān)機器學(xué)習(xí)的新聞都能夠吸引人們足夠的關(guān)注。但人工智能領(lǐng)域一位科技先驅(qū)和資深專家Judea Pearl卻對這一領(lǐng)域的進步提出了尖銳的批評。Judea Pearl在上世紀(jì)曾幫助人工智能習(xí)得了概率,使其能夠做出關(guān)聯(lián)性判斷,但遺憾的是,如今人工智能仍然無法計算因果關(guān)系。訪談中,Judea Pearl還就人工智能未來的發(fā)展、如何判定其具有自由意志等問題做出了回應(yīng)。本文作者KEVIN HARTNETT,原文題目How a Pioneer of Machine Learning Became One of Its Sharpest Critics。

Judea Pearl對人工智能的發(fā)展貢獻(xiàn)良多。在20世紀(jì)80年代,在他的努力之下,機器掌握了依據(jù)概率進行推理的能力。現(xiàn)在他是該領(lǐng)域最尖銳的批評者之一。在他的新書《 The Book of Why: The New Science of Cause and Effect》中,他認(rèn)為人工智能由于不完全理解智力的本質(zhì)而陷入瓶頸。

三十年前,人工智能研究面臨的一個主要挑戰(zhàn)就是編程機器如何將潛在的原因與一系列可觀察的條件聯(lián)系起來。Pearl想出了一種名為Bayesian網(wǎng)絡(luò)的方法。Bayesian網(wǎng)絡(luò)使機器更學(xué)習(xí)有了實踐性意義,比如說有一個病人剛從非洲回來,發(fā)燒而且全身疼痛,那機器可能會得出他患有瘧疾。2011年,Pearl獲得了計算機科學(xué)領(lǐng)域的最高榮譽——圖靈獎,主要在于表彰他這項工作的成就。

人工智能發(fā)展道路上的瓶頸

但正如Pearl所見,人工智能領(lǐng)域目前陷入了概率關(guān)聯(lián)的瓶頸之中。如今,新聞吹噓著機器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)的最新突破,我們讀到的文章也是關(guān)于電腦掌握圍棋和學(xué)會駕駛汽車的。Pearl對此則頗為淡定,他認(rèn)為如今的人工智能技術(shù)只是在前一代人成果的基礎(chǔ)上進行的微微升級——在一組大數(shù)據(jù)中發(fā)現(xiàn)隱藏的規(guī)律——罷了。他最近說:“深度學(xué)習(xí)領(lǐng)域所有令人印象深刻的成就都只是曲線擬合而已。”

現(xiàn)年81歲的Pearl在他的新書中闡述了智能機器如何思考的愿景。他認(rèn)為,關(guān)鍵在于用因果推理來取代關(guān)聯(lián)推理。機器需要的是瘧疾引起發(fā)燒的原因,而不是僅僅將發(fā)燒和瘧疾聯(lián)系起來的能力。一旦這種因果關(guān)系框架確立下來,機器就有可能提出反事實的問題——在某種外界干涉條件下因果關(guān)系會如何變化——Pearl認(rèn)為這是科學(xué)思想的基石。Pearl還提出了一種正式的語言,讓這種想法成為可能——這是21世紀(jì)版本的Bayesian框架,允許機器在概率的基礎(chǔ)上進行思考。

Pearl認(rèn)為,因果推理可以使機器擁有人類水平的智力。他解釋說,它們能夠更有效地與人類交流,甚至可以成為具有自由意志和做惡能力的道德實體。最近,在San Diego的一次會議上,《Quanta Magazine》對Pearl通過電話進行了訪談。以下是經(jīng)過編輯和精簡的對話。

Kevin Hartnett:為什么給你的新書起這么一個名字?

Judea Pearl:它總結(jié)了我在過去25年里一直在做的關(guān)于因果關(guān)系的工作,它是我們?nèi)绾螒?yīng)對那些內(nèi)在原因問題的答案。奇怪的是,這些問題已經(jīng)被科學(xué)拋棄了。所以我這么做是為了彌補那些忽視的。

Hartnett:科學(xué)已經(jīng)拋棄了因果關(guān)系,聽起來非常搞笑,這難道不是科學(xué)研究的全部內(nèi)容嗎?

Pearl:當(dāng)然,但是你儼然已經(jīng)無法在那些方程式中看到它了。代數(shù)的語言是對稱的,如果x告訴了我們y,那么y也會告訴我們x,我講的是確定性關(guān)系。例如,風(fēng)暴即將來臨,氣壓計一定是下降的。

Hartnett:幾十年前,你在人工智能領(lǐng)域取得了成功。你不如說一說當(dāng)時人工智能發(fā)展和研究的情況?

Pearl:20世紀(jì)80年代初我們遇到的問題屬于預(yù)測性或診斷性問題。醫(yī)生會從病人身上觀察一系列癥狀,并希望得出病人患瘧疾或其他疾病的可能性。我們想要弄出一套自動化系統(tǒng)以代替專業(yè)人員——無論是醫(yī)生,礦產(chǎn)資源管理人員,還是其他一些付費專家。所以在這一點上,我想到了一個在概率上可行的方法。

不過,麻煩的一點在于,計算標(biāo)準(zhǔn)概率需要指數(shù)空間和指數(shù)時間,所以我只好想出了一個叫Bayesian網(wǎng)絡(luò)的方案。

Hartnett:然而,在你的新書中,你把自己描述為當(dāng)今人工智能社區(qū)的一個“反叛者”,這又是什么情況呢?

Pearl:這么說吧,當(dāng)我們開發(fā)出的工具使機器能夠以不確定性為基礎(chǔ)進行推理時,我就轉(zhuǎn)而去追尋另一項更具挑戰(zhàn)性的任務(wù)了——因果推理。我的許多同事仍然在研究不確定性推理。有一些研究小組繼續(xù)研究診斷性問題,而不擔(dān)心問題的因果關(guān)系。他們想要的只是預(yù)測和診斷準(zhǔn)確。

我可以舉個例子——我們今天看到的所有機器學(xué)習(xí)的工作都是在診斷模型中進行的,比如把物體標(biāo)記為“貓”或“老虎”。“他們不關(guān)心外部情況變化,他們只是想要識別出一個物體并預(yù)測它將如何隨著時間的推移而變化。

當(dāng)我開發(fā)出了強大的預(yù)測工具后,我覺得這只是人類智慧的冰山一角。如果我們想讓機器有著更高級別的認(rèn)識能力,我們就必須加入因果模型,關(guān)聯(lián)模型還不夠。

Hartnett:大家都對人工智能抱有興奮感,但你沒有。

Pearl:就像我研究深度學(xué)習(xí)所做的一樣,我發(fā)現(xiàn)它們都只停留在關(guān)聯(lián)的層次上??梢哉f,所有令人印象深刻的深刻學(xué)習(xí)成就都只是因為曲線擬合,雖然這么說有點褻瀆的意味。從數(shù)學(xué)層次的角度來看,無論你如何巧妙地操作數(shù)據(jù),以及在操作的過程中讀到了什么數(shù)據(jù),哪怕再復(fù)雜,也仍然是只是曲線擬合的練習(xí)。

曲線擬合和因果關(guān)系

Hartnett:看樣子你對機器學(xué)習(xí)并不怎么感冒。

Pearl:不,事實恰恰相反,我相當(dāng)感冒,因為我們沒有預(yù)料到有那么多問題可以通過純曲線擬合來解決。事實證明它們確實可以通過擬合來解決。但你要明白,我所談及的是未來——接下來會發(fā)生什么?你需要看看有哪個機器人科學(xué)家正在計劃某項實驗,并為懸而未決的科學(xué)問題找到新的答案。這是下一步。我們還想跟一個有意義的機器——有意義的機器是說它能夠跟我們的直覺相匹配——進行一些交流。如果你剝奪了機器人對因果的直覺,你就永遠(yuǎn)不會獲得什么有意義的交流。這樣一來機器人也不可能像你或我一樣,說“我本該做得更好的”。因此,我們其實是失去了一個重要的溝通渠道。

Hartnett:讓機器能夠跟我們一樣有著因果推論能力,這一研究成果未來的前景如何?

Pearl:我們必須給機器匹配一個環(huán)境模型,即讓它們將周圍環(huán)境納入考量范圍。如果一臺機器無法去識別和依托現(xiàn)實,你就不能指望機器在實際應(yīng)用中有任何智能的行為。所以人們必須可以將現(xiàn)實的模型進行編程并嵌入機器,這一步大約會在十年之內(nèi)實現(xiàn)。

下一步將是機器自行假設(shè)這些模型,并根據(jù)經(jīng)驗證據(jù)來驗證和完善它們。這一過程有點兒像科學(xué)認(rèn)識進步的軌跡——我們從地心說開始,從行星軌道是遠(yuǎn)行開始,到最后認(rèn)識到日心說和行星軌道是橢圓的。

然后機器人們也會相互交流,并將這個假想的世界,這個狂野的世界“轉(zhuǎn)譯”為隱喻的模型。

Hartnett:對你你的這種設(shè)想,如今的人工智能從業(yè)者有什么反饋嗎?

Pearl:人工智能界目前四分五裂著。首先,有一些人正陶醉在機器學(xué)習(xí)和深度學(xué)習(xí)以及神經(jīng)網(wǎng)絡(luò)的成功之中,以為實現(xiàn)了天大的成就。他們不明白我在說什么。他們還想繼續(xù)沿著曲線擬合的路子走下去。但是,當(dāng)你和那些除了統(tǒng)計學(xué)習(xí)以外的人工智能領(lǐng)域從業(yè)者交談時,他們立刻就能明白問題之所在。在過去的兩個月里,我看了好幾篇關(guān)于機器學(xué)習(xí)的局限性的文章。

Hartnett:你是說機器學(xué)習(xí)領(lǐng)域其實是有偏離如今進展的新的發(fā)展趨勢了嗎?

Pearl:不不不,不能說是什么趨勢,應(yīng)該說是一種反省吧,一種人真的自我反省,我們需要捫心自問——我們在往何處去?我們下一步該怎么走?

Hartnett:沒錯,這正是我最不想問你的事。

自由意志和作惡能力

Pearl:你知道嗎,我倒是很高興你沒問我關(guān)于自由意志的的事兒。

Hartnett:在這種情況下,你認(rèn)為自由意志是什么?

Pearl:未來有自由意志的機器人一定會出現(xiàn)的,這一點毋庸置疑。我們必須了解如何對它們進行編程,以及從它們那里獲得什么。出于某種原因,在進化過程中,這種自由意志被發(fā)覺在計算科學(xué)層面上是可取的。

Hartnett:哦?這怎么說?

Pearl:這么說吧,你本人是有自由意志的,我們也是在進化中有了使這種感覺的。顯然,這種感覺提供了一些計算功能。

Hartnett:當(dāng)機器人有自由意志的時候,我們能不能立即辨別出來?或者說,它們的自主意愿會不會表現(xiàn)的非常明顯?

Pearl:如果說機器人們開始互相交流,并表示說“你本可以做得更好的”,那么這就是自由意志的一個典型例證。如果一組運動機器人——比如說機器人足球隊——它們之間開始用這種語言進行交流的時候,我們就會知道他們已經(jīng)有屬于自己的意志存在了,比如說什么,“你當(dāng)時應(yīng)該把球傳給我的,我都等了你好久了,結(jié)果你并沒有這么做!”“你本該”這種措辭表明了不管情況多么緊急,你都能掌握住局面,但是實際上你卻沒有。所以第一個證據(jù)是交流用語,第二個證據(jù)是一場踢得蠻出色的足球賽。

Hartnett:那既然你都說到了自由意志的問題了,那我還是覺得得問問你關(guān)于人工智能有“作惡能力”的問題,我們通常認(rèn)為這是取決于你做出選擇的能力。所以,什么是邪惡?

Pearl:邪惡是一種信念,我們一般認(rèn)為這個時候你的貪婪或者說不滿已經(jīng)取代了社會的所有行為及道德規(guī)范。比如說一個人的思維里可能會有一個小人在耳邊說,“你餓了,所以你可以做任何事,只要能填飽肚子就行”,但你的思維里還會有其他的小人,它們在你的耳邊不斷地提醒你,引導(dǎo)你遵循社會的道德及行為規(guī)范,其中的一個小人名叫“同情”。所以,當(dāng)你把你的貪婪或不滿提升到社會標(biāo)準(zhǔn)之上時,那就是邪惡了。

Hartnett:那么,當(dāng)人工智能有能力去作惡時,我們該怎么知道呢?

Pearl:有一些軟件程序——這些程序是我們在過去學(xué)習(xí)的基礎(chǔ)上編制的、用來規(guī)范或者期望機器人的行為的——如果我們發(fā)現(xiàn)機器人一而再、再而三地忽略或者違反它們時,恐怕就可以判定它們擁有作惡的能力了。

鏈接已復(fù)制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號-6京公網(wǎng)安備 11010502049343號