為何要如此強調(diào)人工智能“正當使用”?因為,人工智能的突破猶如“雙刃劍”,“正當使用”可以為社會發(fā)展提供新動能、造福人類,而濫用則可能帶來無窮隱患。
今年4月,聯(lián)合國《特定常規(guī)武器公約》政府專家小組在瑞士日內(nèi)瓦召開會議,討論致命自主武器系統(tǒng)研發(fā),即“殺手機器人”可能帶來的影響。人工智能界的專家學(xué)者及防務(wù)分析人士一致認為,軍事機器人革命帶來的倫理、法律及政策等問題,尤其是自主武器能否自行判斷殺敵,是令人擔憂和亟需討論的現(xiàn)實問題。
實際上,警惕“殺手機器人”的呼聲早已形成。在2017年人工智能國際會議上,有硅谷“鋼鐵俠”之稱的馬斯克、蘋果聯(lián)合創(chuàng)始人沃茲尼亞克、研發(fā)“阿爾法圍棋”的深度思維公司創(chuàng)始人哈薩比斯等科技界名人曾簽署公開信,呼吁聯(lián)合國應(yīng)像禁止生化武器一樣,禁止在戰(zhàn)爭中使用致命的自主武器和“殺手機器人”。
大多數(shù)專家學(xué)者認為,人工智能迅速發(fā)展給社會各領(lǐng)域帶來深遠影響,對軍事作戰(zhàn)系統(tǒng)研發(fā)也帶來全新理念,但就使用致命武器而言,人應(yīng)當是負責(zé)啟動的關(guān)鍵要素。什么樣的人工控制才是最適宜的,相關(guān)討論仍在持續(xù)進行。
通常一種新技術(shù)的適用范圍越廣,被濫用的風(fēng)險越高。人工智能在一個個領(lǐng)域“攻城略地”,推動產(chǎn)業(yè)變革,但也令人對其高速發(fā)展所帶來的未知性心存憂慮。
被美國《麻省理工學(xué)院技術(shù)評論》評為“全球十大突破性技術(shù)”之一的“對抗性神經(jīng)網(wǎng)絡(luò)”,旨在突破人工智能想象力、創(chuàng)造力的瓶頸。但在展現(xiàn)巨大潛力的同時,這項技術(shù)發(fā)展的負面影響也不容忽視。
在相關(guān)試驗中,美國芯片企業(yè)英偉達的研究人員用明星照片訓(xùn)練出一套系統(tǒng),進而生成了數(shù)百張根本不存在、但看起來很真實的人臉照片。還有研究團隊讓系統(tǒng)生成看起來十分逼真的梵高油畫。
專家提醒,不法分子可能利用此類系統(tǒng)制造出圖片甚至視頻來混淆視聽,給監(jiān)管、安全帶來新挑戰(zhàn)。這一領(lǐng)域的技術(shù)先驅(qū)、美國科學(xué)家伊恩·古德費洛就表示,他當前的研究重心已經(jīng)轉(zhuǎn)向如何避免這類技術(shù)的濫用問題,希望它“不至誤入歧途”。
任何一種新技術(shù)的出現(xiàn),人們在充分享受其帶來福祉的同時,也必須及時防范相關(guān)風(fēng)險。如何進行適當引導(dǎo)和管理,同樣考驗人類智慧。
科學(xué)家一直希望以最簡單的辦法,保證以機器人為代表的人工智能不給人類帶來任何威脅。人們最熟悉的莫過于科幻作家阿西莫夫設(shè)計的“機器人三定律”。美國機器智能研究院奠基人尤德科夫斯基也提出了“友好人工智能”的概念,認為“友善”從設(shè)計伊始就應(yīng)當被注入機器的智能系統(tǒng)中。
不少專家建議,除了設(shè)計和建造要遵循技術(shù)規(guī)范,還可由政府有關(guān)部門牽頭,成立由技術(shù)專家、社會科學(xué)研究人員、政府管理人員為核心的人工智能管理委員會,對涉及人工智能的研究和開發(fā)項目進行審核評估。
與生物技術(shù)、核技術(shù)相比,目前對人工智能領(lǐng)域的監(jiān)管依然薄弱。如何對可能形成的負面影響未雨綢繆、為技術(shù)發(fā)展劃出法律和倫理道德的邊界,已經(jīng)迫在眉睫。如何讓人工智能更好地服務(wù)人類社會,也是世界范圍內(nèi)的一項共識。
去年7月,中國國務(wù)院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》就提出,“建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力”。
中國科學(xué)技術(shù)大學(xué)機器人實驗室主任陳小平教授認為,要規(guī)范人工智能發(fā)展,首先要把基礎(chǔ)技術(shù)研究好,“未雨綢繆,需要我們走到前列,才能有發(fā)言權(quán),有具體的思考和對這一領(lǐng)域的深刻知識,才能具備治理的能力,進而提出我們自己的意見和規(guī)則”。