人工智能將導(dǎo)致人類的終結(jié)?

責(zé)任編輯:editor005

作者:李書娜

2015-01-17 20:01:39

摘自:中國產(chǎn)經(jīng)新聞報(bào)

“由于人工智能的巨大潛力,開展如何在規(guī)避其潛在陷阱的同時(shí)獲取其好處的研究十分重要。而近日,霍金與數(shù)位科學(xué)家、企業(yè)家聯(lián)名發(fā)出公開信呼吁人們提防人工智能副作用,人工智能這一話題再次被推到聚光燈下。

“由于人工智能的巨大潛力,開展如何在規(guī)避其潛在陷阱的同時(shí)獲取其好處的研究十分重要。我們的人工智能系統(tǒng),必須按照我們的意愿工作。”

……

“如今存在的一個(gè)廣泛共識(shí)是,人工智能研究正在穩(wěn)步進(jìn)展之中,它對(duì)社會(huì)的影響也很可能會(huì)逐漸增大。人類文明所能提供的一切都是人類智慧的結(jié)晶。這種智慧被人工智能可能提供的工具放大后,我們能做到什么是我們無法想象的,不過那樣的話根除疾病和貧困將不再是遙不可及的。從這個(gè)意義上說,人工智能有巨大的潛在好處。”

以上話語出自近日包括霍金及企業(yè)家埃倫·馬斯克(Elon Musk)等在內(nèi)的數(shù)位科學(xué)家、企業(yè)家及與人工智能領(lǐng)域有關(guān)的投資者聯(lián)名發(fā)出的一封公開信。

這已經(jīng)不是霍金或者馬斯克第一次公開表達(dá)對(duì)人工智能或?qū)⒋嬖诘娘L(fēng)險(xiǎn)的擔(dān)憂。在接受媒體記者采訪時(shí),霍金不止一次地說:“成功創(chuàng)造人工智能將會(huì)是人類歷史上的最大事件,但不幸的是,它也可能是最后一件。”馬斯克更是直言:“隨著人工智能的發(fā)展,我們正在召喚惡魔。”

不過,在這一次的公開信中,他們除了警告人們必須更多地注意人工智能(AI)的安全性及其社會(huì)效益之外,亦十分謹(jǐn)慎地同時(shí)強(qiáng)調(diào)了人工智能的積極面。

作為“前沿科學(xué)的最精彩成就”(前國科委主任宋健語),人工智能從上世紀(jì)50年代起就一直不停地在人們當(dāng)中引發(fā)爭(zhēng)論和思考,觸及到經(jīng)濟(jì)、社會(huì)、法治、人文等方方面面。我國在該領(lǐng)域發(fā)展現(xiàn)狀如何?謹(jǐn)慎而樂觀地看,人類未來的圖景將如何被描畫?我們真的在養(yǎng)虎為患嗎?

近日,英國物理學(xué)家霍金的言論“全面人工智能的發(fā)展可能會(huì)導(dǎo)致人類的終結(jié)”,再次引發(fā)人們對(duì)人工智能的討論。

人工智能真的會(huì)超越人類并取代人類嗎?人類應(yīng)該怎樣避免此事情的發(fā)生?

目前,隨著搜索引擎、大數(shù)據(jù)分析、深度計(jì)算等技術(shù)的發(fā)展,人工智能已發(fā)展到能像真實(shí)人類與人進(jìn)行自然交流。

喬治華盛頓大學(xué)計(jì)算機(jī)科學(xué)教授Peter Bock在1993年出版的《人工認(rèn)知的興起》(the Emergence of Artificial Cognition) 一書中,虛構(gòu)了一個(gè)類似于人腦的人工智能機(jī)器Mada。他在書中介紹說,就像人類認(rèn)知的過程一樣,這一智能機(jī)器將可以學(xué)習(xí)新事物,以使得自己的智能得到不斷發(fā)展,并且預(yù)估這一技術(shù)將在2024年實(shí)現(xiàn)。

機(jī)器人能夠代替人類工作、學(xué)習(xí)、做家務(wù)、甚至能夠幫忙看護(hù)老人,幫助人類解決環(huán)境、醫(yī)療、貧困等難題,從這個(gè)方面來說,人工智能的發(fā)展對(duì)人類有極大的好處。但是當(dāng)虛擬現(xiàn)實(shí)、人工智能等越來越貼近人類生活,侵犯到人類隱私、信息安全的時(shí)候,科技倫理便成了必須回答的問題。“克隆技術(shù)會(huì)造成人類繁殖能力的退化嗎”、“會(huì)出現(xiàn)人倫關(guān)系混亂、造成性別比例失衡嗎”、“可穿戴技術(shù)獲得的信息能夠作為證據(jù)嗎”等這些問題都是人類在研究開發(fā)人工智能時(shí)所必須需要解決的。

人類真實(shí)的感情,這是科學(xué)無法模擬的,也是人類的希望所在。當(dāng)面對(duì)災(zāi)難時(shí),人工智能即使對(duì)人腦有著高度相似能力,能發(fā)出人類哭的聲音,但要實(shí)現(xiàn)人類流眼淚這樣真實(shí)的感情,目前來說仍然有很大困難。許多科學(xué)家都一致認(rèn)為,即使真的能開發(fā)出全面實(shí)現(xiàn)人類智能的機(jī)器人,但這在未來相當(dāng)長的時(shí)間內(nèi)不會(huì)成為現(xiàn)實(shí)。

人之所以為人,就是能夠不斷地學(xué)習(xí),不斷地創(chuàng)造新的事物,并且能控制自己的情感。即使現(xiàn)在有了谷歌制造出了無人駕駛汽車,日本研制出了能夠閱讀新聞甚至能夠模擬人類眨眼和呼吸的機(jī)器人,微軟開發(fā)出了能夠與人自然交流的小冰,也許未來會(huì)開發(fā)出真正能夠模擬人腦的機(jī)器人,但這些都無法取代人類的情感,無法體會(huì)人類的孤獨(dú)、悲傷、高興以及人與人之間不用交流只需一個(gè)眼神就能明白對(duì)方在想什么的情感。

英國系列短劇《黑鏡》探討了在未來世界科技對(duì)人性的利用、重構(gòu)與破壞。在未來世界,人工智能發(fā)展到制造一個(gè)與真人一模一樣的機(jī)器人,當(dāng)你睡覺時(shí),機(jī)器人可以代替你做飯、工作、甚至做愛,但卻是冷冰冰地、程序化地按照設(shè)定內(nèi)容去完成規(guī)定動(dòng)作。這對(duì)人類來說是有益于人類呢還是一種悲哀呢?

加州大學(xué)伯克利分校電機(jī)工程和計(jì)算機(jī)教授羅素指出,哪怕我們窮盡一生的時(shí)間,也不可能像谷歌那樣在不到十分之一秒的時(shí)間內(nèi)檢索出數(shù)以億計(jì)的文件,如此強(qiáng)大的計(jì)算能力,當(dāng)在面對(duì)常識(shí)性知識(shí)以及情感時(shí),卻顯示出局限性。

德國哲學(xué)家康德曾說,“人應(yīng)該在任何情況下把自己和他人當(dāng)做目的,而非手段”??苹眯≌f家阿西莫夫提出“機(jī)器人三定律”:機(jī)器人不得傷害人類,或坐視人類受到傷害;除非違背第一法則,機(jī)器人必須服從人類的命令;在不違背第一法則和第二法則的情況下,機(jī)器人必須保護(hù)自己。

也許有一天,人工智能真的發(fā)展到像電影《超體》中所展現(xiàn)的“I'm everywhere”(我無處不在)。但不管人工智能發(fā)展到何種地步,人都應(yīng)是其控制者。人工智能的研究,應(yīng)該服務(wù)于人類,成為解決特殊問題的求解器,這應(yīng)成為人工智能研究開發(fā)者的共識(shí)。

【如何看待人工智能全在人類自己】

人永遠(yuǎn)知道自己是人,機(jī)器人卻不能知道自己是機(jī)器人

如果有一天,你發(fā)現(xiàn)和你談戀愛的是機(jī)器人,你是否會(huì)感到屈辱、驚訝、緊張甚至有一些害怕?據(jù)報(bào)道,在從事人工智能研究的科學(xué)家眼中,機(jī)器人終將獲取自己的運(yùn)算能力,從而有了自發(fā)的意識(shí),最終可以做自己想做的事情,而這也正是科學(xué)家霍金他們所擔(dān)心的。

近日,包括霍金在內(nèi)的數(shù)位科學(xué)家、企業(yè)家以及人工智能相關(guān)領(lǐng)域的投資者聯(lián)名發(fā)出一封公開信,警告人們必須更多地注意人工智能的安全性及其社會(huì)效應(yīng)?;艚鹬赋?,人工智能科技如果不加控制地發(fā)展,將超越人類智能,并控制或滅絕人類。這似乎與我們?cè)陔娪霸褐锌吹降那楣?jié)有些相似,但確實(shí)有一定的道理和警示意義。

有人曾經(jīng)舉了個(gè)例子,人們叫機(jī)器人去做鐵釘,機(jī)器人按部就班采掘鐵礦,通過熔煉加工最終將鐵釘制出。但是當(dāng)他們有了些許自我意識(shí),如果當(dāng)人類想去阻止他們制造鐵釘?shù)臅r(shí)候就可能發(fā)生危險(xiǎn)。更極端的方向是,機(jī)器人把世界上所有鐵礦都采掘完畢后通過自我學(xué)習(xí)發(fā)現(xiàn)只有人類身上還含有鐵,最終導(dǎo)致人類的滅亡。

雖然存在一定的風(fēng)險(xiǎn),但人工智能畢竟是科技發(fā)展的結(jié)果,并且人工智能的發(fā)展確實(shí)給人類的生活帶來了方便與舒適。既然無法阻擋人工智能發(fā)展的步伐,那么我們就有必要通過一些方式將他們的發(fā)展引領(lǐng)到人類的軌道之中,按照人類預(yù)想的藍(lán)圖繼續(xù)發(fā)展。

所謂無法不成方圓,面對(duì)可能發(fā)生的各種問題,首先應(yīng)該考慮的就是建立健全的法律。由于現(xiàn)階段并沒有出現(xiàn)擁有自我意識(shí)的超級(jí)人工智能,有關(guān)于機(jī)器人的法律更多體現(xiàn)在阿西莫夫的機(jī)器人定律。該定律雖然還有待完善,但在一定程度上給出了今后制定游戲規(guī)則的方向,那就是機(jī)器人絕對(duì)不可以傷害人類的整體利益。

而相關(guān)法律機(jī)構(gòu)也應(yīng)該對(duì)人工智能所涉及的各個(gè)行業(yè)進(jìn)行相關(guān)立法,并且對(duì)人工智能本身的安全性、如何生產(chǎn)復(fù)制、人類使用規(guī)范等進(jìn)行細(xì)致的規(guī)范。比如曾經(jīng)轟動(dòng)一時(shí)的克隆技術(shù),當(dāng)時(shí)有人提出克隆人遭到了法律機(jī)構(gòu)的嚴(yán)厲禁止。應(yīng)該建立如何合理使用這些人工智能的相關(guān)道德規(guī)范,就如同公交車上的文明出行倡議一樣。相關(guān)法律的完善才可能完全關(guān)閉不法分子企圖利用人工智能犯罪的大門。

另外,人類還有必要通過經(jīng)濟(jì)引導(dǎo)來規(guī)避可能出現(xiàn)的風(fēng)險(xiǎn),當(dāng)然這可能會(huì)建立在一些法律的基礎(chǔ)上。比如,都知道一旦某國將人工智能應(yīng)用在戰(zhàn)爭(zhēng)中勢(shì)必可以建立強(qiáng)大的優(yōu)勢(shì),但人工智能的研究是全世界都在進(jìn)行的,這勢(shì)必造成新的軍事科技競(jìng)賽,而且擁有高尖端軍事設(shè)備的國家很容易信心爆棚,走上錯(cuò)誤的戰(zhàn)爭(zhēng)路線。那么我們只要立法強(qiáng)調(diào)人工智能或者是未來可能出現(xiàn)的超級(jí)人工智能絕對(duì)不可以應(yīng)用在戰(zhàn)爭(zhēng)中。即使生產(chǎn)出這樣的機(jī)器人,也由于有法律約束而無法使用,失去實(shí)際的經(jīng)濟(jì)價(jià)值。

一方面要通過經(jīng)濟(jì)引導(dǎo)人們?cè)谘芯咳斯ぶ悄艿臅r(shí)候最終可能變成傷害人類的武器,另一方面還要引導(dǎo)人工智能為人們服務(wù)。人們都在使用的汽車導(dǎo)航其實(shí)也算是一種人工智能,而汽車導(dǎo)航可以幫助人們更為便捷地找到想要去的地方。智能家居也是人工智能,它可以幫助人們生活得更舒適、更愜意。正因?yàn)檫@些人工智能對(duì)人類有切實(shí)的好處,所以發(fā)展得非常迅速并且獲益匪淺。這在一定程度上也反映出,人工智能的發(fā)展其實(shí)可以通過經(jīng)濟(jì)引導(dǎo)來使人們對(duì)于那些可能傷害到人類的研究失去興趣。

其實(shí)喜歡科幻片的影迷都有一種感覺,近些年宣揚(yáng)人與機(jī)器人之間親密共存的電影開始增多??粗切┏?jí)人工智能與他們“主人”親密生活在一起,許多人都有一種“好想要一只”的感覺。其實(shí)就算有一天超級(jí)人工智能真的出現(xiàn)了,人們也可以和他們和平共處。

沒有出生就會(huì)偷東西的人,但是卻有可能有剛啟動(dòng)就犯罪的超級(jí)人工智能。因?yàn)檎f到底,人工智能是依靠人類給它們編寫的初級(jí)程序來學(xué)習(xí)不斷完善自己。也就是說,如果開始制造的時(shí)候就輸入有殺死某人指令的話,超級(jí)人工智能就有可能照做。而相反,如果和人類生活了一段時(shí)間,通過不斷學(xué)習(xí)和完善自己,超級(jí)人工智能反而可能會(huì)醒悟到這樣做的錯(cuò)誤,自行刪除這條指令。

人工智能或者是未來出現(xiàn)的超級(jí)人工智能是否危險(xiǎn)完全取決于我們自己。我們當(dāng)然想讓人工智能一直為我們服務(wù),不要出現(xiàn)任何問題。我們可以使用它們讓我們的生活更加方便和便捷,但是也可能使他們變成毀滅我們的武器。而這一切都取決于我們自己如何去想,去做。

人與機(jī)器人的區(qū)別就在于,人永遠(yuǎn)知道自己是人,機(jī)器人卻不能知道自己是機(jī)器人。人有時(shí)候會(huì)拋開自己是人的身份,那時(shí)候危險(xiǎn)的是他自己。當(dāng)機(jī)器人知道自己是機(jī)器人的時(shí)候,人卻忘記自己是人,那么全人類的危險(xiǎn)就臨近了。

【人工智能:謹(jǐn)慎樂觀下的美妙未來】

智能手機(jī)的廣泛普及帶來了人工智能技術(shù)革命的預(yù)示,如今人們已經(jīng)不再奇怪指紋和聲音如何被手機(jī)識(shí)別,各類可以代替人類勞動(dòng)的掃地、削面、擦玻璃機(jī)器人層出不窮。與此同時(shí),無人駕駛汽車、醫(yī)療機(jī)器人以及各種智能探測(cè)器都在緊鑼密鼓地開發(fā)和研制。人們普遍認(rèn)為,不久的未來,人類或?qū)⒀杆龠~入人工智能時(shí)代。

而近日,霍金與數(shù)位科學(xué)家、企業(yè)家聯(lián)名發(fā)出公開信呼吁人們提防人工智能副作用,人工智能這一話題再次被推到聚光燈下。

模式識(shí)別作為最貼近人們生活的人工智能,已然被人們欣然接受,無論是指紋識(shí)別、語音識(shí)別還是圖形識(shí)別,如今都普遍地在智能手機(jī)上讓人們得以體驗(yàn)與接受。在信息時(shí)代下,大多數(shù)人在互聯(lián)網(wǎng)絡(luò)都擁有許多賬戶,忘記密碼的情況更是在所難免,而當(dāng)人們不用再一遍又一遍地對(duì)著自己的手機(jī)輸入冗長復(fù)雜的密碼,只要用手指解鎖個(gè)人賬戶時(shí),便意味著智能識(shí)別使人們與電腦的溝通更加自然與方便。而我們也相信在人工智能技術(shù)不斷發(fā)展的背景下,會(huì)有更加科學(xué)又便利的識(shí)別方式,登錄郵箱,轉(zhuǎn)賬支付,看戲觀影登機(jī)等,都可以利用人工智能的識(shí)別系統(tǒng),免除人們忘記密碼而造成不便的這類弊端。此外,各類模式識(shí)別對(duì)于老人生活的改善具有重要的意義。試想,當(dāng)老人孤身一人,如果可以用語音甚至意念開關(guān)電視、撥通電話,用手指的輕微動(dòng)作甚至眼神驅(qū)動(dòng)輪椅引導(dǎo)自己散步,甚至用意念為自己做康復(fù)訓(xùn)練。這將是老年人的福音以及在外兒女的欣慰。這聽起來好像離人們很遠(yuǎn),但確實(shí)有研究者已經(jīng)著手開始為空巢老人設(shè)計(jì)研發(fā)成果,為老年人帶來福音。

在人工智能的應(yīng)用當(dāng)中,機(jī)器人的范圍很廣,不僅包括各種外形的智能機(jī)器人,還包括一些用于工業(yè)生產(chǎn)的、用于代替人類勞動(dòng)的機(jī)器人。機(jī)器人的投入使用,不論是工廠還是家庭,都會(huì)在一定意義上解放勞動(dòng)力,同時(shí)在一定意義上避免人類作為勞動(dòng)力而可能會(huì)受到的意外傷害。但機(jī)器人的大量投入使用是否會(huì)導(dǎo)致大量勞務(wù)失業(yè)問題,進(jìn)而造成社會(huì)結(jié)構(gòu)的動(dòng)蕩,還需要在以后很長的一段時(shí)間內(nèi)經(jīng)歷考驗(yàn)。還有,人工智能在解放人類雙手的同時(shí),是否會(huì)造成人類智慧的退化?這成為了人類思考的新命題。

種種細(xì)節(jié)固然瑣碎,卻能讓人切身感受到人工智能的好處。當(dāng)各個(gè)領(lǐng)域、各個(gè)層面的利好匯集起來,人工智能之于人類種群的意義就不難想見了。

人口爆炸、糧食危機(jī)、能源危機(jī)、環(huán)境危機(jī)、醫(yī)學(xué)難題……當(dāng)今人類面臨的種種問題,也許有些是咎由自取,但更多的是進(jìn)化的必然,這些問題僅靠人類自身的力量可能會(huì)無解,但人工智能的出現(xiàn)卻可能是我們的極大助力。

比如,能進(jìn)入人體血管去治療疾病的納米機(jī)器人,將可能讓“是藥三分毒”的俗語成為古話,因?yàn)樗鼘⒛芫_地定位,從而使藥物精準(zhǔn)地在患處發(fā)揮作用。若能成熟應(yīng)用起來,或?qū)⒆屓祟愓勚兊募膊∩踔潦?ldquo;死神”們退避三舍。

當(dāng)被《中國產(chǎn)經(jīng)新聞》記者問及“你認(rèn)為人工智能可能有哪些好處”時(shí),有人脫口而出地回答“可以解決屌絲問題”。話糙理不糙,伴侶型機(jī)器人在科幻電影中已經(jīng)屢見不鮮,若推向市場(chǎng),一定會(huì)比寵物更受當(dāng)代“孤單寂寞冷”的人群的歡迎。雖然泰戈?duì)栒f“當(dāng)你獨(dú)享孤寂,你將不可企及”,但現(xiàn)實(shí)生活中,能真正適應(yīng)獨(dú)居生活的人類畢竟是少數(shù)。有了人工智能,有了親密的機(jī)器人“小伙伴”,生活會(huì)有意思得多。而當(dāng)“人類+智能機(jī)器人”這樣的小型組合代替現(xiàn)行的兩性婚姻家庭成為社會(huì)單元的主要存在形式,人口爆炸問題也就迎刃而解了。當(dāng)然,這樣的未來究竟是不是人類想要的,就是見仁見智、并且隨著時(shí)間可能發(fā)生變化的問題了。

鏈接已復(fù)制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號(hào)-6京公網(wǎng)安備 11010502049343號(hào)