業(yè)界大咖談人工智能:別“煉”出造反的AI

責(zé)任編輯:zsheng

2018-11-05 13:49:42

摘自:科技日?qǐng)?bào)

一場(chǎng)搶劫案后,格雷的妻子喪生,自己也全身癱瘓。他接受了一個(gè)天才科學(xué)家的“升級(jí)”改造治療——在他身體裡植入了人工智能程序STEM,獲得了超強(qiáng)的能力,從一個(gè)“殘廢”直接升級(jí)成為職業(yè)殺手。隨著STEM的進(jìn)化升級(jí),步步緊逼格雷交出身體使用權(quán)和大腦意識(shí)控制權(quán)……

一場(chǎng)搶劫案后,格雷的妻子喪生,自己也全身癱瘓。他接受了一個(gè)天才科學(xué)家的“升級(jí)”改造治療——在他身體裡植入了人工智能程序STEM,獲得了超強(qiáng)的能力,從一個(gè)“殘廢”直接升級(jí)成為職業(yè)殺手。隨著STEM的進(jìn)化升級(jí),步步緊逼格雷交出身體使用權(quán)和大腦意識(shí)控制權(quán)……

本年度關(guān)於人工智能和人類未來(lái)的最佳影片,不少人認(rèn)為非《升級(jí)》莫屬。而人工智能和人類抗衡的探討,是科幻電影中的永恆話題,從《銀翼殺手》到《機(jī)械姬》,再到今年的低成本電影《升級(jí)》,都映射出未來(lái)人工智能對(duì)人類的威脅。

黑產(chǎn)超正規(guī)行業(yè) 惡意源於人類基因

AI造反,是科幻電影裡太常見(jiàn)的橋段。問(wèn)題在於,現(xiàn)實(shí)當(dāng)中真正的AI好像也在一步步向我們走來(lái)。不少人抱有憂慮和不安,人工智能會(huì)“作惡”嗎?

傾向於AI威脅論的人並不在少數(shù)。馬斯克曾在推特上表示:“我們要非常小心人工智能,它可能比核武器更危險(xiǎn)。”史蒂芬·霍金也說(shuō):“人工智能可能是一個(gè)‘真正的危險(xiǎn)’。機(jī)器人可能會(huì)找到改進(jìn)自己的辦法,而這些改進(jìn)並不總是會(huì)造福人類。”

“任何技術(shù)都是一把雙刃劍,都有可能用於作惡,為什麼人工智能作惡會(huì)引起這麼大的反響?”在近日召開(kāi)的2018中國(guó)計(jì)算機(jī)大會(huì)的分論壇上,哈爾濱工業(yè)大學(xué)長(zhǎng)聘教授鄔向前拋出了問(wèn)題,人工智能研究的底線到底在哪裡?

早在1942年,阿西莫夫就提出了機(jī)器人三定律。但問(wèn)題在於,這些科幻書(shū)中美好的定律,執(zhí)行時(shí)會(huì)遇到很大的問(wèn)題。

“一臺(tái)計(jì)算機(jī)裡跑什麼樣的程序,取決於這個(gè)程序是誰(shuí)寫(xiě)的。”360集團(tuán)技術(shù)總裁、首席安全官譚曉生說(shuō),機(jī)器人的定律可靠與否,首先是由人定義的,然后由機(jī)器去存儲(chǔ)、執(zhí)行。

值得注意的是,“不作惡”已成科技行業(yè)的一個(gè)技術(shù)原則。那麼,機(jī)器人作惡,惡意到底從何而來(lái)?

如今人工智能發(fā)展的如火如荼,最早擁抱AI的卻是黑產(chǎn)群體,包括用AI的方法來(lái)突破驗(yàn)証碼,去黑一些賬戶。譚曉生笑言:“2016年中國(guó)黑產(chǎn)的收入已超過(guò)一千億,整個(gè)黑產(chǎn)比我們掙的錢還要多,它怎麼會(huì)沒(méi)有動(dòng)機(jī)呢?”

“AI作惡的實(shí)質(zhì),是人類在作惡。”北京大學(xué)法學(xué)院教授張平認(rèn)為,AI不過(guò)是一個(gè)工具,如果有人拿著AI去作惡,那就應(yīng)該制裁AI背后的人,比如AI的研發(fā)人員、控制者、擁有者或是使用者。當(dāng)AI在出現(xiàn)損害人類、損害公共利益和市場(chǎng)規(guī)則的“惡”表現(xiàn)時(shí),法律就要出來(lái)規(guī)制了。

目前,無(wú)人駕駛和機(jī)器人手術(shù)時(shí)引發(fā)的事故,以及大數(shù)據(jù)分析時(shí)的泛濫和失控時(shí)有耳聞。那麼,人工智能會(huì)進(jìn)化到人類不可控嗎?屆時(shí)AI作惡,人類還能招架的住嗎?

任務(wù)驅(qū)動(dòng)型AI 還犯不了“反人類罪”

值得關(guān)注的是,霍金在其最后的著作中向人類發(fā)出警告,“人工智能的短期影響取決於誰(shuí)來(lái)控制它,長(zhǎng)期影響則取決於它能否被控制。”言下之意,人工智能真正的風(fēng)險(xiǎn)不是惡意,而是能力。

“人工智能未來(lái)的發(fā)展會(huì)威脅到人類的生存,這不是杞人憂天,確實(shí)會(huì)有很大的風(fēng)險(xiǎn),雖說(shuō)不是一定會(huì)發(fā)生,但是有很大的概率會(huì)發(fā)生。”在譚曉生看來(lái),人類不會(huì)被滅亡,不管人工智能如何進(jìn)化,總會(huì)有漏洞,黑客們恰恰會(huì)在極端的情況下找到一種方法把這個(gè)系統(tǒng)完全摧毀。

對(duì)此,上海交通大學(xué)電子系特別研究員倪冰冰持樂(lè)觀態(tài)度。“我們目前大部分的AI技術(shù)是任務(wù)驅(qū)動(dòng)型,AI的功能輸出、輸入都是研究者、工程師事先規(guī)定好的。”倪冰冰解釋說(shuō),絕大多數(shù)的AI技術(shù)遠(yuǎn)遠(yuǎn)不具備反人類的能力,至少目前不用擔(dān)心。

張平表示,當(dāng)AI發(fā)展到強(qiáng)人工智能階段時(shí),機(jī)器自動(dòng)化的能力提高了,它能夠自我學(xué)習(xí)、自我升級(jí),會(huì)擁有很強(qiáng)大的功能。比如人的大腦和計(jì)算機(jī)無(wú)法比擬時(shí),這樣的強(qiáng)人工智能就會(huì)對(duì)我們構(gòu)成威脅。

“人類給AI注入什麼樣的智慧和價(jià)值觀至關(guān)重要,但若AI達(dá)到了人類無(wú)法控制的頂級(jí)作惡——‘反人類罪’,就要按照現(xiàn)行人類法律進(jìn)行處理。”張平說(shuō),除了法律之外,還需有立即“處死”這類AI的機(jī)制,及時(shí)制止其對(duì)人類造成的更大傷害。“這要求在AI研發(fā)中必須考慮‘一鍵癱瘓’的技術(shù)處理,如果這樣的技術(shù)預(yù)設(shè)做不到,這類AI就該停止投資與研發(fā),像人類對(duì)待毒品般全球誅之。”

作惡案底漸增 預(yù)防機(jī)制要跟上

事實(shí)上,人們的擔(dān)憂並非空穴來(lái)風(fēng)。人工智能作惡的事件早在前兩年就初見(jiàn)端倪,比如職場(chǎng)偏見(jiàn)、政治操縱、種族歧視等。此前,德國(guó)也曾發(fā)生人工智能機(jī)器人把管理人員殺死在流水線的事件。

可以預(yù)見(jiàn),AI作惡的案例會(huì)日漸增多,人類又該如何應(yīng)對(duì)?

“如果我們把AI當(dāng)作工具、產(chǎn)品,從法律上來(lái)說(shuō)應(yīng)該有一種預(yù)防的功能??茖W(xué)家要從道德的約束、技術(shù)標(biāo)準(zhǔn)的角度來(lái)進(jìn)行價(jià)值觀的干預(yù)。”張平強(qiáng)調(diào),研發(fā)人員不能給AI灌輸錯(cuò)誤的價(jià)值觀。畢竟,對(duì)於技術(shù)的發(fā)展,從來(lái)都是先發(fā)展再有法律約束。

在倪冰冰看來(lái),目前不管是AI算法還是技術(shù),都是人類在進(jìn)行操控,我們總歸有一些很強(qiáng)的控制手段,控制AI在最高層次上不會(huì)對(duì)人產(chǎn)生一些負(fù)面影響。“如果沒(méi)有這樣一個(gè)操控或者后門的話,那意味著不是AI在作惡,而是發(fā)明這個(gè)AI工具的人在作惡。”

凡是技術(shù),就會(huì)有兩面性。為什麼我們會(huì)覺(jué)得人工智能的作惡讓人更加恐懼?與會(huì)專家直言,是因?yàn)锳I的不可控性,在黑箱的情況下,人對(duì)不可控東西的恐懼感更加強(qiáng)烈。

目前最火的領(lǐng)域——“深度學(xué)習(xí)”就是如此,行業(yè)者將其戲謔地稱為“當(dāng)代煉金術(shù)”,輸入各類數(shù)據(jù)訓(xùn)練AI,“煉”出一堆我們也不知道為啥會(huì)成這樣的玩意兒。人類能信任自己都無(wú)法理解的決策對(duì)象嗎?

顯然,技術(shù)開(kāi)發(fā)的邊界有必要明晰,比爾·蓋茨也表示擔(dān)憂。他認(rèn)為,現(xiàn)階段人類除了要進(jìn)一步發(fā)展AI技術(shù),同時(shí)也應(yīng)該開(kāi)始處理AI造成的風(fēng)險(xiǎn)。然而,“這些人中的大多數(shù)都沒(méi)有研究AI風(fēng)險(xiǎn),只是在不斷加速AI發(fā)展。”

業(yè)界專家呼吁,我們必須清楚地知道人工智能會(huì)做出什麼樣的決策,對(duì)人工智能的應(yīng)用范圍和應(yīng)用結(jié)果的預(yù)期,一定要有約束。

AI會(huì)不會(huì)進(jìn)化,未來(lái)可能會(huì)形成一個(gè)AI社會(huì)嗎?“AI也許會(huì)為了爭(zhēng)取資源來(lái)消滅人類,這完全有可能,所以我們還是要重視AI作惡的程度和風(fēng)險(xiǎn)。”現(xiàn)場(chǎng)一位嘉賓建議,我們現(xiàn)在要根據(jù)人工智能的不同階段,比如弱智能、強(qiáng)智能和超智能,明確哪些人工智能應(yīng)該研究,哪些應(yīng)該謹(jǐn)慎研究,而哪些又是絕對(duì)不能研究的。

如何防范AI在極速前進(jìn)的道路上跑偏?“要從技術(shù)、法律、道德、自律等多方面預(yù)防。”張平說(shuō),AI研發(fā)首先考慮道德約束,在人類不可預(yù)見(jiàn)其后果的情況下,研發(fā)應(yīng)當(dāng)慎重。同時(shí),還需從法律上進(jìn)行規(guī)制,比如聯(lián)合建立國(guó)際秩序,就像原子彈一樣,不能任其無(wú)限制地發(fā)展。

鏈接已復(fù)制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號(hào)-6京公網(wǎng)安備 11010502049343號(hào)