現(xiàn)在,你可能不會對關(guān)掉蘋果的虛擬助手Siri、亞馬遜的Alexa或微軟的Cortana而產(chǎn)生疑慮。這些應(yīng)用僅僅是模擬人類助手,但顯然不是人類本身。我們意識到,未來可能在復(fù)雜的軟件影響之下,已經(jīng)沒有人在家了。
但是人工智能正在迅速發(fā)展。在不久的將來,盡管它們是由金屬和塑料制成,而不是由肉和血組成的,我們?nèi)匀挥锌赡馨l(fā)現(xiàn)我們制造的智能機(jī)器人擁有類似于人類的思想和情感。當(dāng)這種情況發(fā)生時,我們?nèi)绾螌Υ覀兊臋C(jī)器將變得至關(guān)重要。哲學(xué)家和學(xué)者們已經(jīng)對這方面開始設(shè)想,未來機(jī)器人和智能機(jī)器或許應(yīng)該得到某種權(quán)利的時代。
但這些并不一定全是人權(quán)。加拿大多倫多約克大學(xué)的哲學(xué)家克里斯汀· 安德魯斯說,“如果你有一臺能夠像人類一樣自主行動、或者有自我意識的電腦或機(jī)器人,我想我們很難說它不是一個人。”
這就引出了一系列難題。我們應(yīng)該如何對待有一定意識程度的機(jī)器人呢?如果我們確信人工智能有能力去承擔(dān)情感上的痛苦,或者真實(shí)地感到痛苦,那我們該怎么看待它?那么把它關(guān)起來就等同于所謂的謀殺嗎?
機(jī)器人vs猿類
在當(dāng)今社會里,討論這個問題前,我們可以比較動物當(dāng)今能夠擁有的權(quán)利。動物權(quán)利倡導(dǎo)人士一直在推動重新評估某些動物的法律地位,尤其是類人猿。像珊瑚泉、佛羅里達(dá)的非贏利的非人類權(quán)利項目組織認(rèn)為黑猩猩、大猩猩和紅毛猩猩都應(yīng)該被當(dāng)做是擁有自治權(quán)的人類,而不僅僅是動物園里的財產(chǎn)。
該組織法律團(tuán)隊的負(fù)責(zé)人史蒂芬·懷斯表示,無論是否存在,同樣的邏輯也適用于任何一個擁有自治能力的實(shí)體。他說,如果有一天我們有了有感知能力的機(jī)器人,“我們應(yīng)該對他們持有同樣的道德和法律責(zé)任,就像我們正在爭取的對非人類的動物權(quán)利的正式賦權(quán)。”
當(dāng)然,決定哪些機(jī)器值得我們設(shè)定道德考慮是很困難的,因?yàn)樵谖覀兘?jīng)常把人類的想法和感覺投射到無生命的實(shí)體上之后,最終會導(dǎo)致同樣的去同情那些沒有想法或感覺的實(shí)體。
想想Spot,一個由波士頓動力公司開發(fā)的一種類似犬類的機(jī)器人。今年早些時候,總部位于馬薩諸塞州沃爾瑟姆的科技公司發(fā)布了一段視頻,視頻里展示員工在踢這只四腳的機(jī)器。這個想法原本是為了展示Spot良好的平衡性能。但有些人認(rèn)為這類似于虐待動物的行為。善待動物組織(PETA)的相關(guān)人士發(fā)表了一份聲明,稱Spot遭受的行為是“不恰當(dāng)?shù)?rdquo;。
馬薩諸塞州劍橋市麻省理工學(xué)院媒體實(shí)驗(yàn)室的研究員凱特·達(dá)林在研究人們與玩具恐龍機(jī)器人pleo的互動時,也發(fā)現(xiàn)了類似的情況。Pleo外形看起來不像人類,而且我們觀察到它很明顯僅僅是一個玩具。但是,它體內(nèi)設(shè)定的編程行為和說話方式不僅展示了它擁有的智力,還暗示它能夠體驗(yàn)痛苦的能力。例如:如果你把Pleo倒著拿起來,它會嗚咽地乞求你停下來。
為了了解我們在將同情擴(kuò)展到簡單的機(jī)器人方面有多少的認(rèn)識,達(dá)林鼓勵在最近開展的研討會上的參與者與Pleo一起玩,最后讓他們?nèi)ゴ輾?。?dāng)時,幾乎所有人都拒絕這一方案。達(dá)林說:“盡管無論在意識層面上還是在理性層面上,我們完全明白它們不是真的,但人們已經(jīng)下意識地把機(jī)器人當(dāng)成活的東西來對待。”
盡管是Pleo還是Spot都不會感到疼痛,達(dá)林認(rèn)為,我們將來有必要去關(guān)注如何對待這些實(shí)體。她說:“如果我們對他們采取暴力行為之后感到不安,或者說如果感到有什么不對勁的地方,這也許就是我們對他的同情心,而且我們不想否認(rèn)這點(diǎn),因?yàn)檫@可能會影響我們對待其他生物的方式。”(這是電視劇《西部世界》提出的一個關(guān)鍵問題,在這個問題上,主題公園的客人們被鼓勵去與超逼真的仿生機(jī)器人打交道。)
與機(jī)器人對話
就目前而言,只要你是它的所有者,虐待Pleo或任何現(xiàn)有的機(jī)器人都不是犯罪。但是,如果我們真的對以上討論的問題有了某種形式的意識,那么虐待機(jī)器人將被如何看待呢?在最初,我們怎樣才能知道一臺機(jī)器是否有思想呢?
半個世紀(jì)前,計算機(jī)科學(xué)的先驅(qū)者阿蘭·圖靈思考過這個問題。從圖靈的角度來看,我們永遠(yuǎn)無法確定機(jī)器是否擁有與人類類似的感受和體驗(yàn),所以我們最好的辦法就是看看機(jī)器人能否像人類一樣繼續(xù)進(jìn)行對話(我們現(xiàn)在稱之為圖靈測試)。
考慮到人類對話的復(fù)雜性,打造一臺能夠進(jìn)行冗長的正??谡Z交流的機(jī)器人是一項艱巨的任務(wù)。但如果我們能造出這樣一臺機(jī)器,圖靈認(rèn)為,我們應(yīng)該把它當(dāng)作一種能夠思考和擁有感覺的生命來對待。
來自亞特蘭大的拉比(猶太人的特別階層,學(xué)者)和法學(xué)教授馬克?戈德費(fèi)德也得出了類似的結(jié)論:如果一個這個智能機(jī)器人實(shí)體擁有人類的行為,他最近寫道,“我不能去隨意地戳碰它來試驗(yàn)看它是否會流血,這樣不道德。無論從道德的角度來說還是寧可謹(jǐn)慎行事的角度來看,我有責(zé)任把所有看起來像人類一樣的實(shí)體視為人類。”
從而我們得到的顯而易見的結(jié)論是,權(quán)利的賦予不應(yīng)以生物學(xué)為基礎(chǔ),而應(yīng)基于更基本的東西:人格。
它們能擁有哪些權(quán)利?
如果我們最終承認(rèn)了智能機(jī)器作為一個人,那么我們有義務(wù)賦予它哪些法律權(quán)利呢?假如它能通過圖靈測試,我們也許會覺得它至少應(yīng)該擁有繼續(xù)存在的權(quán)利。但澳大利亞墨爾本莫納什大學(xué)的哲學(xué)家羅伯特·斯派洛認(rèn)為,這僅僅是個開始。他想知道,如果一臺機(jī)器的“頭腦”比人類的“頭腦”還要聰明,那么會發(fā)生什么呢?在最近的一篇文章中,他寫道:“的確,殺死一臺能夠通過圖靈測試的機(jī)器與殺死一個成年人類一樣,不僅是錯誤的,而且根據(jù)機(jī)器所能幫助我們的能力,它甚至可能錯上加錯。”
也許這從純粹邏輯的角度來說是有意義的。但西雅圖華盛頓大學(xué)的機(jī)器人技術(shù)和網(wǎng)絡(luò)法律專家瑞安·卡羅表示,我們的法律不太可能改變這種狀況。“我們的法律體系反映了我們對于這類問題都是通過基本生物學(xué)決定的,”他說。如果有一天我們發(fā)明了某種人工智能,“它將打破一切傳統(tǒng)的法律,就像我們今天所理解的那樣。”
對于安德魯來說,關(guān)鍵問題在于如何讓該實(shí)體賦予權(quán)力來讓自己的利益得到認(rèn)可。當(dāng)然,我們要確定它們的興趣是什么,這可能是件棘手的事。就像來自某個國家的人很難理解來自不同文化國度的人的欲望一樣。她表示,作為人類,當(dāng)我們真正認(rèn)識到某件事的時候,我們至少有義務(wù)和判斷去做正確的事。“如果我們意識到某件實(shí)體實(shí)際上是‘某人’,那么我們就必須切身考慮他們的利益。”
也許現(xiàn)在對于我們來說不難去想象一下他們未來會持續(xù)存在的興趣,而在這種情況下,我們可能需要三思而后行。
(選自:futurism 編譯:網(wǎng)易見外編譯機(jī)器人 審校:付曾