如果我們被電腦超越會發(fā)生什么事?日本科學(xué)家發(fā)明了一種運(yùn)算速度極快的機(jī)器。這臺機(jī)器和人類猜拳時,每次都能贏。
通常認(rèn)為,通用人工智能一旦達(dá)到人類智能的等級,就會很快超越人類智能。而一旦超越人類,它就不需要我們幫它變得更聰明了,它自己就能這么做。比如,它自己就可以編程,進(jìn)而不斷完善自己的算法。那樣一來,電腦就會以指數(shù)級別的速度不斷進(jìn)步,把人類遠(yuǎn)遠(yuǎn)拋在后面。
科學(xué)家把這個時間點(diǎn)稱為科技奇點(diǎn)。那時,人類就徹底沒辦法和電腦競爭了。想象一個人擁有不止一個博士學(xué)位,而是所有領(lǐng)域的博士學(xué)位。你根本沒辦法理解他在做什么,他也能做到別人做不到的事。
跟一個比你思考速度快一百萬倍的人說話是什么感覺?你每思考一秒,他已經(jīng)思考了兩周。如果快十億倍呢?你每思考一秒,他已經(jīng)思考了32年。
但是,并不是每一個人工智能專家都認(rèn)為科技奇點(diǎn)會到來。目前,我們打造的人工智能系統(tǒng),能力還非常有限。它對電腦程序的理解還比不上剛接觸程序四、五周的學(xué)生。而科學(xué)家已經(jīng)研究人工智能超過40年了。很多方法都已經(jīng)嘗試過了,但我們還是不知道該怎么做。
現(xiàn)在很多人投資人工智能,很多科學(xué)家在研究這個課題。這背后的誘因,很大程度上是人工智能這個萬億美元級別的市場。毫不夸張的說,發(fā)展出通用人工智能,將會完全顛覆世界經(jīng)濟(jì)。
同時,這也伴隨著很多人的憂慮。我們打造出能治療癌癥的機(jī)器,延長人類壽命。我們也可以利用人工智能讓社會變得更公正,更公平。但是,這也有可能造成人類毀滅。
我們給機(jī)器制定了一個我們認(rèn)可的目標(biāo),機(jī)器為了達(dá)成這個目標(biāo)可能會自動制定一些次目標(biāo)。這時,我們就無法預(yù)期這些次目標(biāo)是否會損害我們的利益。
《2001太空漫游》里的人工智能HAL,為了讓任務(wù)成功,選擇殺死一些宇航員。這非常精確地呈現(xiàn)出了超智能的真正威脅。如果我們給人工智能設(shè)定了一個目標(biāo)是世界和平。那么或許達(dá)成世界和平最有效率的方式就是消滅全人類。只要除掉所有人類,就不會再有爭端。
很多人會說“把機(jī)器關(guān)掉就好了”。但是一個高度智能的機(jī)器,它能不知道該怎么保護(hù)自己嗎?想要關(guān)掉它,或許并沒有那么簡單。