致命性自主武器——人工智能自行決定是否殺死鎖定對(duì)象的武器——的研發(fā)已經(jīng)在進(jìn)行中了。
7月中的一個(gè)周三,未來(lái)生命研究所(FLI)——一家專注于利用科技改善人類的組織——發(fā)布了一項(xiàng)聲明,即譴責(zé)致命的自主武器的發(fā)展,并呼吁各國(guó)政府禁止這樣的研究。
“人工智能擁有使世界更加美好的巨大的潛力——如果我們?nèi)祟愑衅鸫a的廉恥心,拒絕濫用它們的話。”FLI總裁Max Tegmark在新聞稿中說(shuō)。
“能夠自主決定殺人的人工智能武器與生物武器一樣令人厭惡和不安全,應(yīng)該對(duì)它們一視同仁。”
一百七十個(gè)組織和2464人簽署了倡議書(shū),承諾“既不參與也不支持致命自主武器的開(kāi)發(fā)、制造、貿(mào)易或應(yīng)用”。
該承諾的簽署者包括OpenAI創(chuàng)始人Elon Musk,Skype創(chuàng)始人Jaan Tallinn和AI領(lǐng)域的領(lǐng)導(dǎo)者Stuart Russell。
Google DeepMind的三位聯(lián)合創(chuàng)始人(Demis Hassabis,Shane Legg和Mustafa Suleyman)也簽署了這一承諾。 DeepMind是谷歌最重要的人工智能研究團(tuán)隊(duì),該公司最近因與美國(guó)國(guó)防部合作而陷入到輿論的風(fēng)口浪尖,公司內(nèi)部對(duì)其未來(lái)的發(fā)展方向產(chǎn)生了巨大的分歧。
今年6月,谷歌發(fā)誓不會(huì)續(xù)簽國(guó)防部的合同,后來(lái)又發(fā)布了人工智能開(kāi)發(fā)的全新指導(dǎo)方向,其中包括禁止自主式武器。
簽署FLI承諾書(shū)可以進(jìn)一步確立該公司自身對(duì)致命自主武器的公開(kāi)立場(chǎng)。
目前尚不清楚該承諾是否會(huì)引發(fā)其他具體的實(shí)際行動(dòng)。
聯(lián)合國(guó)二十六名成員國(guó)已經(jīng)同意在全球范圍內(nèi)禁止使用致命的自主武器,但包括俄羅斯,英國(guó)和美國(guó)在內(nèi)的一些世界領(lǐng)導(dǎo)人尚未表態(tài)。
這已不是AI專家們第一次聚集在一起發(fā)出反對(duì)開(kāi)發(fā)自主武器的倡議。然而,這次的承諾書(shū)確實(shí)引來(lái)了更多的簽名者,其中包括幾位在業(yè)內(nèi)鼎鼎大名的人物。
不幸的是,即使世界上所有國(guó)家都同意禁止研發(fā)致命的自主武器,它也無(wú)法阻止個(gè)人和某些政府繼續(xù)秘密研制AI武器。
我們即將推開(kāi)新時(shí)代的大門,AI將成為人類事務(wù)和生活中的重要組成部分,看起來(lái)我們別無(wú)選擇,只能希望聰明的好人總能戰(zhàn)勝壞人。