5G時代人工智能開始殺人?

責任編輯:zsheng

2019-03-24 15:17:16

摘自:中國質(zhì)量新聞網(wǎng)

中國質(zhì)量新聞網(wǎng)訊(通訊員 悟知了)在影視作品里,人工智能殺人似乎是一件很平常的事,但歸根結(jié)底那是人類的想象,想象并不會針對影響到人類的生命安全,可是一旦想象變成了現(xiàn)實,那可就不好說了。

人工智能殺人和人工智能傷人并不是相同的概念,人工智能在通過自身能力完成任務(wù)的過程中出現(xiàn)了對人類的傷害,這本質(zhì)上是一種“誤傷”,但如果人工智能有了“主動”的傷人意愿,那事情就完全不同了。近期,埃及航空公司的波音737max8飛機發(fā)生的墜機事件,究其原因,就是一起人工智能在主動傷人事件,盡管有相關(guān)調(diào)查人員表示,此次人工智能的行為可以被認為是“無意識”狀態(tài)下產(chǎn)生的,但外界普遍認為,這是人工智能殺人的一個危險信號。

由于埃及航空公司的事故飛機剛剛找到黑匣子,所以目前無法準確判斷墜機原因,但普遍分析認為,此次事故與2018年10月28日在印尼首都雅加達發(fā)生的波音737max8飛機墜毀事故“極其相似”,外界分析人士從雅加達墜機的最后11分鐘通話錄音分析出了有關(guān)所謂“人工智能殺人”的相關(guān)細節(jié)。

雅加達墜機發(fā)生在2018年10月28日,該航班的編號為“JT611”,解密的黑匣子記錄了這架起飛之后13分鐘即從空中墜落的航班在墜落前有11分鐘的時間,人類駕駛員在與人工智能進行“搏斗”。

飛機的自動駕駛?cè)〈巳祟愶w行員的控制權(quán),而將這架本來應(yīng)該拉高的飛機保持在了低空飛行的狀態(tài)。人類駕駛員憑借多年的飛行經(jīng)驗判斷除了異常,試圖通過人工干預將飛機拉高,因此拼命的拉扯操縱桿,想把飛機從俯沖狀態(tài)改成拉高狀態(tài),盡管飛行員經(jīng)過了長達11分鐘的努力,但最終還是無濟于事,人工智能駕駛系統(tǒng)一直牢牢地掌握著飛機的控制權(quán),最終人工智能駕駛系統(tǒng)和飛機上的所有人類一起墜落地面。盡管相關(guān)技術(shù)人員試圖找出人工智能出現(xiàn)這種情況的合理解釋,但至少從事情本身來看,人工智能無情的謀殺了飛機上的所有人類。

更令人擔憂的一種觀點是:人類已進入了5G時代,隨著5G技術(shù)的日臻成熟,人工智能殺人也將越來越“熟練”和頻繁。

這種觀點認為,人工智能殺人將可能分為三個階段:

1、過失殺人;

2、模糊殺人;

3、故意殺人。

在5G技術(shù)發(fā)展的初期,人工智能將具有較為完備的思維能力和計算能力,但缺乏創(chuàng)造能力。

在這一階段,人工智能對人類造成的傷害將主要來源于自動駕駛領(lǐng)域,此前中國質(zhì)量新聞網(wǎng)智能頻道曾經(jīng)發(fā)布過一篇有關(guān)2018年3月22日,一輛測試中的無人駕駛汽車以每小時60公里的速度撞上一位正在違反交通規(guī)則橫穿馬路的行人的事件,當時無人駕駛汽車并未減速,這位行人被撞成重傷,最終不治身亡。

相關(guān)事件的判決結(jié)果令人大跌眼鏡,相關(guān)技術(shù)公司被判無罪。

除此之外,在這個階段的人工智能如果被運用到外科手術(shù)領(lǐng)域,也不可避免的會有傷人的情況出現(xiàn)。在這一階段,人工智能對人類造成的傷害主要是設(shè)計方面出現(xiàn)了問題,導致人工智能在遇到特殊情況時無法做出應(yīng)有的判斷和處理。畢竟程序代碼都是由人編寫的,很多程序都在一定程度上存在不足,程序越是復雜,存在的漏洞和不足的可能性就越大,盡管程序可以通過多重測試來發(fā)現(xiàn)并修改漏洞,但任何事物都不可能完全不出現(xiàn)任何問題,尤其是看上去就不那么靠譜的人工智能駕駛和人工智能手術(shù)等。

隨著相關(guān)技術(shù)的發(fā)展,人工智能“殺人”將會變得模糊化,人工智能的知識積累能力比人類快百萬倍以上,已經(jīng)橫掃所有人類圍棋高手的“阿爾法狗”就是最好的證明,通過數(shù)以百萬計的復盤,它強大的學習能力完全超越了人類。

無人駕駛汽車仍舊是人工智能的技術(shù)發(fā)展的先鋒,但是不會僅僅拘泥于一條單一的道路,一種類似于阿爾法狗,原理就是希望通過計算機的強大計算能力,將所有可能發(fā)生的事情都預先計算出來,讓無人駕駛汽車甚至所有的人工智能都知道在遇到各種情況的時候應(yīng)該怎么處理。很顯然,去年3月22日發(fā)生的那場車禍很好的證明了這種發(fā)展道路的局限性,因為車輛無法準確的判斷在行人違反交通規(guī)則的時候自己應(yīng)該如何處理,這也正是造成無人駕駛車輛最終撞上了行人并導致行人傷重不治的根源。

另一種就是所謂的“自主學習”。在數(shù)據(jù)積累到已成程度之后,人工智能將可以根據(jù)這些數(shù)據(jù)進行有自主能力的設(shè)定及思考。比如積累的數(shù)據(jù)大多都是開車的速度比較快,喜歡超過前方車輛,只要看到行人或障礙物就會遠遠的開始減速,此時人工智能駕駛系統(tǒng)會改變自己的數(shù)據(jù),將自己的準行車準則向這些數(shù)據(jù)靠攏,以達到更舒服的駕駛感。

在自主學習的人工智能中,就很有可能出現(xiàn)“模糊殺人”。比如車輛積累的數(shù)據(jù)中,遇到闖紅燈的行人,會理所當然的選擇不避讓,而是搶在行人前面沖過綠燈,人工智能對這樣的情況進行了“自主學習”之后,遇到行人時,就會加速在行人面前沖過去,一旦這個行人也是個固執(zhí)的家伙,那問題就可能變得很嚴重,人工智能控制下的車輛不減速,行人也不避讓,慘劇將無法避免。

雖然這是一種極端的情況,但這種情況是完全有可能存在的,那么一旦造成了人員傷亡,人工智能是否有責任,將會變得很難以界定。

如果說“模糊殺人”還只是難以界定法律責任,人工智能的“故意殺人”問題就變得更加嚴重了。盡管這樣的情景經(jīng)常出現(xiàn)在科幻電影中,但絕大部分人都不愿意相信這真的會在現(xiàn)實中發(fā)生。

著名的“機器人三定律”中是這樣規(guī)定機器人的行為準則的:

1:機器人不得傷害人,也不得見人受到傷害而袖手旁觀;

2:機器人應(yīng)服從人的一切命令,但不得違反第一定律;

3:機器人應(yīng)保護自身的安全,但不得違反第一、第二定律。

現(xiàn)在或者不就之前的過去,我們看待這三項規(guī)定的時候可能還覺得是理所當然的,但試想一下,如果機器人有了情感,機器人也被情感所左右,那么它們還是完整意義上的“機械”嗎?如果不是了,那么它們又怎么可能去完全機械的執(zhí)行人類為他們設(shè)定的規(guī)則?

2018年,日本已經(jīng)有研究團隊宣布研發(fā)成功并且量產(chǎn)了“會對你的情緒做出反應(yīng),盡其所能讓你充滿快樂,讓你重新充滿活力”的機器人,中國在這方面的研究也已經(jīng)取得了一定的進展,甚至“情感計算”能力被引入了一些社交網(wǎng)絡(luò)中用來“更好地把握觀眾情緒”。

盡管很多人仍然覺得,機器掌握的只是計算能力,無法掌握人類情感,然而,從生物學或生理學的角度來講,“情感”其實也是一種復雜的算法。5G時代,當情感算法成為現(xiàn)實的時候,機器人哪怕是擁有了最初級的情感,那么一旦人類傷害了它們,它們真的能堅守“機器人三定律”而不傷害人類嗎?

這個問題的答案,并不需要很復雜的情感去解答,同時也足夠令人類警惕。

鏈接已復制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號-6京公網(wǎng)安備 11010502049343號