在馬斯克擔(dān)心終結(jié)者的時(shí)候,我們到底該如何用好人工智能

責(zé)任編輯:zsheng

作者:田思奇

2018-07-22 08:38:23

摘自:界面新聞

人工智能(AI)技術(shù)的快速更新正為各行各業(yè)帶來翻天覆地的變化,戰(zhàn)爭(zhēng)和武器也不例外。每一項(xiàng)技術(shù)革新似乎都伴隨著道德困境的出現(xiàn),而創(chuàng)造出人工智能的人類,也必須抓緊時(shí)間考慮如何規(guī)范其使用。

人工智能(AI)技術(shù)的快速更新正為各行各業(yè)帶來翻天覆地的變化,戰(zhàn)爭(zhēng)和武器也不例外。每一項(xiàng)技術(shù)革新似乎都伴隨著道德困境的出現(xiàn),而創(chuàng)造出人工智能的人類,也必須抓緊時(shí)間考慮如何規(guī)范其使用。

7月18日,“鋼鐵俠”埃隆·馬斯克、谷歌旗下人工智能企業(yè)DeepMind的創(chuàng)始人等多位科技界大佬在一場(chǎng)人工智能聯(lián)合會(huì)議上作出承諾,宣布“不參與、不支持開發(fā)、制造、交易或使用致命性自主武器”。簽署者一致認(rèn)為,剝奪人類生命的決定不可能委托給一臺(tái)機(jī)器。

在這場(chǎng)會(huì)議舉行前,許多美國科技公司也因?yàn)橄蛘蜍姺教峁┝巳斯ぶ悄芗夹g(shù)支持而受到抨擊。這些案例包括谷歌幫助美國國防部分析無人機(jī)畫面、亞馬遜與執(zhí)法機(jī)構(gòu)分享人臉識(shí)別技術(shù)、微軟正在為移民和海關(guān)執(zhí)法局(ICE)提供服務(wù)等等。

 

點(diǎn)擊查看源網(wǎng)頁

 

點(diǎn)擊查看源網(wǎng)頁

美國國防部所在地五角大樓

會(huì)議主辦方生命未來研究所(Future of Life Institute)認(rèn)為,這份協(xié)議意味著有關(guān)人工智能安全性的討論終于落到實(shí)處。研究所主席泰格馬克(Max Tegmark)在聲明中表示:

能夠自主決定殺人的人工智能武器就和生物武器一樣令人作嘔且不夠穩(wěn)定,當(dāng)然要以同樣的方式處理掉。?

事實(shí)上,人工智能——或者所謂的自動(dòng)化技術(shù)已經(jīng)和人類共存了很長(zhǎng)時(shí)間。哈佛大學(xué)《人工智能與國家安全》研究報(bào)告的作者格里高利·艾倫近日在第七屆世界和平論壇上介紹說,最早的飛機(jī)自動(dòng)駕駛技術(shù)在1930年代就開發(fā)出來了。到目前為止,所謂的自動(dòng)化已經(jīng)有了近100年的歷史。

同時(shí),自動(dòng)化從誕生起就被應(yīng)用到軍事行動(dòng)中。最早正是美軍在二戰(zhàn)期間使用自動(dòng)駕駛技術(shù)來完成調(diào)整試用,用于諾登投彈瞄準(zhǔn)器——一種可以自動(dòng)飛行并投擲炸彈的自動(dòng)駕駛系統(tǒng)。

在當(dāng)代社會(huì),人工智能概念最顯著的更新是納入了機(jī)器學(xué)習(xí)因素。艾倫介紹說,之前的計(jì)算機(jī)自動(dòng)化技術(shù)是由人類手工編程的邏輯指令,而人工智能可以根據(jù)機(jī)器學(xué)習(xí)的算法和訓(xùn)練數(shù)據(jù)自主編程。當(dāng)先進(jìn)的算法、海量的數(shù)據(jù)和先進(jìn)的算力這三者結(jié)合起來,自動(dòng)化系統(tǒng)便會(huì)威力倍增。

經(jīng)過幾十年的信息技術(shù)發(fā)展,第三次工業(yè)革命解決了連接的問題——包括人與信息的連接、人與商品的連接、人與人的連接。而人工智能的出現(xiàn)進(jìn)一步解決了連接后的根本性問題。

科大訊飛高級(jí)副總裁江濤在世界和平論壇上舉例說,協(xié)和醫(yī)院最好的醫(yī)生可以很方便地跟世界各地的患者連接在一起。但這仍然沒有解決根本的看病問題,連接以后的處理還要靠人的大腦,即專家的知識(shí)和經(jīng)驗(yàn)。?但人工智能的出現(xiàn)進(jìn)一步幫助人類處理后續(xù)問題,比如人工智能系統(tǒng)去年已經(jīng)通過國家醫(yī)師資格考試,可以作出輔助診斷,提高醫(yī)生的勞動(dòng)生產(chǎn)率。

 

點(diǎn)擊查看源網(wǎng)頁

 

點(diǎn)擊查看源網(wǎng)頁

2017年通過國家執(zhí)業(yè)醫(yī)師考試的“智醫(yī)助理”

如同電子技術(shù)一樣,人工智能技術(shù)具備跨行業(yè)的性質(zhì),在多個(gè)領(lǐng)域?yàn)槿祟惿钭鞒鰳O大的改善。另一方面,電子技術(shù)除了帶來電報(bào)和電話等發(fā)明,電引信也在戰(zhàn)爭(zhēng)中發(fā)揮了重要作用。類似地,對(duì)于人工智能來說,其本身正暴露出巨大的安全隱患,也并非所有應(yīng)用都在道德上為人所接受。

從其本身來看,360集團(tuán)副總裁賀勁松指出,人工智能所依賴的各類傳感器、訓(xùn)練數(shù)據(jù)、深度學(xué)習(xí)模型和軟件,都存在著一定的安全隱患。給它一組數(shù)據(jù),它就可以引發(fā)安全問題,比如安全研究人員在試驗(yàn)環(huán)境下干擾特斯拉的無線感應(yīng)器,使得特斯拉直接撞上了前方50厘米的障礙物;利用被污染過的圖片就能輕易地就讓人工智能學(xué)習(xí)系統(tǒng)把一條狗識(shí)別成一只豬等等。

作為一個(gè)全新的安全博弈舞臺(tái),人工智能在給生活帶來便捷的同時(shí),也給國際安全帶來了新的威脅,賀勁松舉例說,人工智能極大地增強(qiáng)了網(wǎng)絡(luò)情報(bào)的分析收集能力,使網(wǎng)絡(luò)間諜活動(dòng)更加精準(zhǔn)有效,同時(shí)降低了網(wǎng)絡(luò)武器的制作成本。目前,人工智能還能用于網(wǎng)絡(luò)的惡意刪帖、刷帖,合成虛假的音視頻,影響人類正常的生活秩序。

人工智能初創(chuàng)公司地平線創(chuàng)始人余凱警告稱:

算法可以控制人的思想,這是前所未有的事情。我們本來應(yīng)當(dāng)是宇宙當(dāng)中的超級(jí)力量,我們可以控制其他的東西,而不會(huì)說被機(jī)器控制。而現(xiàn)在算法就已經(jīng)在操縱,甚至是洗腦我們?nèi)祟?hellip;…根本的威脅在于,算法會(huì)自行來決策。它們?nèi)绱酥斆魑覀冊(cè)趺纯刂扑麄兡?

但另一方面,倘若要從技術(shù)層面思考規(guī)避風(fēng)險(xiǎn)的措施,首先還要認(rèn)識(shí)到人工智能技術(shù)的局限性。

余凱也進(jìn)一步澄清說,人工智能還處在非常早期的階段,神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)也極為初步:

?(人工智能)跟嬰兒相比都是很蠢的。比如我的兒子在一歲的時(shí)候就很容易地分辨出米老鼠和其他不同的動(dòng)物。但如果想要訓(xùn)練神經(jīng)網(wǎng)絡(luò)去學(xué)習(xí)貓的類別,可能就需要很多萬個(gè)數(shù)據(jù)去訓(xùn)練系統(tǒng)。

科大訊飛高級(jí)副總裁江濤也表示:

它會(huì)計(jì)算,但不會(huì)算計(jì),它沒有全局觀、沒有世界觀、沒有自主意識(shí),在當(dāng)前的演進(jìn)路線上,我們還是看不到未來機(jī)器具備自主意識(shí)的這種可能性,除非將來對(duì)于腦科學(xué)和神經(jīng)科學(xué)上取得重大突破之后(才能實(shí)現(xiàn)),但是什么時(shí)候能做到,現(xiàn)在根本沒有人能預(yù)測(cè)。

賀勁松認(rèn)為,安全應(yīng)該貫穿到人工智能發(fā)展的全鏈條、全流程,鼓勵(lì)推出人工智能安全的公共服務(wù)平臺(tái),開展人工智能的惡意濫用與體系對(duì)抗的評(píng)估研究,并加強(qiáng)人工智能海量數(shù)據(jù)的安全防護(hù),防止用戶隱私的信息泄露。

現(xiàn)在的人工智能系統(tǒng)越來越多地使用了用戶的指紋、聲紋、面部特征甚至行蹤軌跡等個(gè)人信息開展學(xué)習(xí)和訓(xùn)練,人工智能越來越聰明,就使我們的個(gè)人信息如同“裸奔”。而人工智能的發(fā)展不能以犧牲用戶的隱私權(quán)為代價(jià),它的收集要實(shí)現(xiàn)知情,選擇權(quán)在用戶,使用則嚴(yán)格受到保護(hù),這應(yīng)該是人工智能時(shí)代隱私安全的重要的基本原則。

 

 

針對(duì)能否識(shí)別網(wǎng)絡(luò)攻擊來源的問題,賀勁松認(rèn)為,區(qū)分黑客攻擊和國家攻擊是有可能的,因?yàn)橛薪M織的或者有預(yù)謀的攻擊更多的是持續(xù)的攻擊,而黑客的攻擊很多是偶然性、偶發(fā)性的,通過溯源基本可以分清是組織攻擊還是國家攻擊。

艾倫也指出,類似的追溯能力在過去五年得到了很大的提高。不過人工智能在監(jiān)管方面確實(shí)比其他技術(shù)更困難。制定國際規(guī)則時(shí)要考慮技術(shù)、成本、監(jiān)測(cè)的難度和手段,以及商業(yè)和軍用技術(shù)之間的異同。例如昂貴的技術(shù)只有國家或者非常高素質(zhì)的人才能用,那么就比較容易分辨,但人工智能人才都在企業(yè),標(biāo)準(zhǔn)化產(chǎn)品用起來也便宜,所以規(guī)制人工智能,尤其是在戰(zhàn)爭(zhēng)中的使用,從技術(shù)角度來說可以實(shí)現(xiàn),但挑戰(zhàn)重重。

因此,艾倫認(rèn)為,人們要汲取之前技術(shù)革命的經(jīng)驗(yàn)教訓(xùn),在發(fā)展人工智能的同時(shí)更好地實(shí)現(xiàn)世界和平。比如冷戰(zhàn)時(shí)期的衛(wèi)生偵查就是一個(gè)正面實(shí)例?!督股镂淦鞴s》也是如此——既要發(fā)展,同時(shí)又能夠緩解生物技術(shù)的威脅,這便是國際社會(huì)對(duì)于人工智能發(fā)展可以汲取的先例。

而清華大學(xué)計(jì)算機(jī)教授張鈸的觀點(diǎn)是,人工智能安全問題存在過度政治化。

實(shí)際上在人工智能安全問題上有很多人類共同的利益。當(dāng)前最大的安全問題就是人工智能系統(tǒng)非常脆弱,而且攻擊的代價(jià)很低,防守起來很困難……全世界都要團(tuán)結(jié)起來共同來解決這個(gè)問題,因?yàn)檫@個(gè)問題不解決,對(duì)任何一個(gè)國家都是不安全的……而不是想利用這個(gè)安全問題來攻擊哪個(gè)國家。

科大訊飛高級(jí)副總裁江濤還指出,當(dāng)前的重點(diǎn)是讓大眾了解人工智能時(shí)代中人和機(jī)器的關(guān)系,讓普通大眾和政府都認(rèn)識(shí)到人工智能和人類該如何協(xié)同,避免因?yàn)榭謶趾筒涣私舛鴮?dǎo)致過分的保守。

在江濤個(gè)人看來,歐盟在今年5月開始實(shí)行的《一般數(shù)據(jù)保護(hù)條例》(GDPR)就顯得過于保守,一定程度上阻礙了人工智能的發(fā)展。他表示:

未來人工智能時(shí)代的人機(jī)關(guān)系會(huì)是什么樣的?我覺得一定是人機(jī)協(xié)同的:人類有情感、有智慧、有激情;機(jī)器算得快,能夠快速統(tǒng)計(jì)、分析、計(jì)算。這些結(jié)合起來就能為人類帶來巨大的進(jìn)步。未來的人工智能時(shí)代,比人類更強(qiáng)大的不是人工智能,而是掌握人工智能的人類。

鏈接已復(fù)制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號(hào)-6京公網(wǎng)安備 11010502049343號(hào)