應(yīng)當(dāng)建立規(guī)范機(jī)器人及其使用行為的法律框架
在國際人工智能界,不少人認(rèn)為人工智能會對人類產(chǎn)生巨大威脅,呼吁不要開發(fā)“人工智能自主武器”,警惕人工智能的潛在風(fēng)險。他們討論的人工智能,通常指的是未來能自主進(jìn)化、有類人意識的“強(qiáng)人工智能”,而當(dāng)前應(yīng)用的多是擅長單項任務(wù)、完成人類指令的“弱人工智能”。即便如此,人工智能的迅速發(fā)展帶來的挑戰(zhàn)已經(jīng)逐漸顯現(xiàn)。
為保護(hù)隱私,人們發(fā)布照片或視頻時,會打上馬賽克覆蓋人臉,但美國一個研究小組開發(fā)了一套機(jī)器學(xué)習(xí)算法,通過訓(xùn)練,神經(jīng)網(wǎng)絡(luò)可以識別圖像或視頻中隱藏的信息。
時下,一些機(jī)器人應(yīng)用到兒童和老人陪護(hù)中。中國社會科學(xué)院哲學(xué)研究所研究員段偉文認(rèn)為,機(jī)器人與兒童對答、給老人喂飯等行為看似簡單,長期相處可能使人類對機(jī)器傾注感情、產(chǎn)生依賴,有必要設(shè)置防止過度依賴機(jī)器人的原則。此外,無人駕駛汽車發(fā)生交通事故怎麼界定責(zé)任,醫(yī)療外科手術(shù)機(jī)器人出現(xiàn)意外怎樣處置……隨著智能機(jī)器人深入?yún)⑴c人類生活,專家認(rèn)為,如何建立規(guī)范機(jī)器人及其使用行為的法律框架,成為人工智能和機(jī)器人產(chǎn)業(yè)發(fā)展無法回避的重要問題。
清華大學(xué)人工智能研究院院長、中科院院士張鈸曾表示,當(dāng)前的人工智能與人類智能本質(zhì)上是不同的。與人類相比,人工智能系統(tǒng)抗干擾能力差,推廣能力弱,甚至可能犯大錯。因此使用這樣的人工智能系統(tǒng)需要小心。
思考與智能機(jī)器的相處模式,控制不良影響
人工智能的發(fā)展幾經(jīng)波折,也在不斷進(jìn)化。
“人工智能及其智能化自動系統(tǒng)的普遍應(yīng)用,不僅僅是一場結(jié)果未知的科技創(chuàng)新,更可能是人類文明史上影響深遠(yuǎn)的社會倫理試驗。”段偉文說。
北京師范大學(xué)哲學(xué)學(xué)院教授田海平表示,機(jī)器深度學(xué)習(xí)和算法體系,使得智能體具有了一種準(zhǔn)人格或擬主體的特性。當(dāng)前,“阿爾法狗”、醫(yī)療機(jī)器人“沃森”和智能伴侶虛擬機(jī)器人微軟“小冰”仍屬於“弱人工智能”,離真正的智能主體還比較遠(yuǎn)。即便如此,它們也已經(jīng)呈現(xiàn)改變?nèi)祟愋螒B(tài)的發(fā)展趨勢。未來假若“強(qiáng)人工智能”出現(xiàn),並深度介入人類事務(wù),那麼,“我們必須提前思考人類如何與之相處的問題,控制它的不良影響。”田海平說:“人工智能是否以及如何為自己的行為負(fù)責(zé),這仍然且始終是技術(shù)難題。”
近年來,國際人工智能界日益重視人工智能中的倫理與法律問題,並推動相關(guān)技術(shù)標(biāo)準(zhǔn)及社會規(guī)范的研討和制定。2017年1月,一個國際學(xué)術(shù)會議制定並發(fā)布了人工智能23條倫理原則,其中包括,人工智能研究的目標(biāo)應(yīng)該建立有益的智能,而不是無向的智能﹔人工智能系統(tǒng)的設(shè)計和運(yùn)作應(yīng)符合人類尊嚴(yán),權(quán)利,自由和文化多樣性的理念等。電氣和電子工程師協(xié)會(IEEE)也頒布了《人工智能設(shè)計的倫理準(zhǔn)則》,試圖從工程設(shè)計和生產(chǎn)的角度,提出人工智能的倫理標(biāo)準(zhǔn)。
我國人工智能研究及實踐走在世界前列,但在相關(guān)機(jī)器倫理、立法研究和安全標(biāo)準(zhǔn)等方面起步相對較晚,近些年正在積極加強(qiáng)這些方面的研究。
有專家表示,人工智能倫理法律等涉及科學(xué)界、企業(yè)界、哲學(xué)、法學(xué)等多個領(lǐng)域,有必要成立應(yīng)對人工智能發(fā)展的聯(lián)盟組織,吸納各方面的力量,共同推進(jìn)相關(guān)研究。
運(yùn)用算法,將人類道德規(guī)范體系嵌入智能機(jī)器
段偉文說,人工智能系統(tǒng)的“擬主體性”,使得它們的行為可以看作是與人類倫理行為類似的擬倫理行為。因此,人工智能界在探討能不能運(yùn)用智能算法,將人類的價值觀和道德規(guī)范體系嵌入到智能機(jī)器中。有專家認(rèn)為,這既是人工智能未來願景,也是當(dāng)前面臨的最大挑戰(zhàn)。
田海平說,把道德代碼嵌入機(jī)器,是人工智能發(fā)展的必然趨勢。缺少這一步,自動駕駛、無人機(jī)、助理機(jī)器人等智能體就不可能進(jìn)入人類生活。機(jī)器在自主性上達(dá)到了人類高度后,它在做決策時,隻有遵循道德算法,才能發(fā)展各種各樣的功能。
段偉文介紹,讓機(jī)器符合人類道德規(guī)范,學(xué)界大體有3種設(shè)想:一是自上而下,即在智能體中預(yù)設(shè)一套倫理規(guī)范,如自動駕駛汽車應(yīng)將撞車對他人造成的傷害降到最低﹔二是自下而上,即機(jī)器通過數(shù)據(jù)驅(qū)動,學(xué)習(xí)人類的倫理德道規(guī)范﹔三是人機(jī)交互,即讓智能體用自然語言解釋其決策,使人類能把握其復(fù)雜的邏輯並及時糾正可能存在的問題。
“人工智能倫理研究目前沒有一套普遍原則,因此可以從應(yīng)用中遇到的實例出發(fā),找到價值沖突點(diǎn),討論需要作哪些倫理考慮。”段偉文說,比如針對偏見,有必要追溯到機(jī)器學(xué)習(xí)的數(shù)據(jù)中,完善數(shù)據(jù)信息,並改進(jìn)算法,讓人工智能判斷盡量客觀公正,符合人類的價值觀。
盡管人工智能發(fā)展存在許多潛在問題,但更多人對技術(shù)應(yīng)用的前景表示樂觀。他們認(rèn)為,人工智能能提供更安全、更智能的生活體驗,不能因為技術(shù)潛在的不足而因噎廢食,在提前布局,防范可能出現(xiàn)的挑戰(zhàn)的同時,也要利用新技術(shù)來應(yīng)對風(fēng)險。
以隱私安全為例,人工智能並不是隱私的天敵。北京大學(xué)信息科學(xué)技術(shù)學(xué)院教授郭耀說,利用人工智能技術(shù)能夠應(yīng)對一些常規(guī)方法難以應(yīng)對的安全問題。比如,基於行為分析,人工智能可以快速檢測出惡意軟件,通過機(jī)器學(xué)習(xí)還能及時檢測異常網(wǎng)絡(luò)流量行為,預(yù)警黑客入侵,從而提升網(wǎng)絡(luò)安全防御水平。
張鈸說,不管人工智能如何發(fā)展,基本理念應(yīng)該不是用智能機(jī)器代替人,而是要協(xié)助人做好工作。人和機(jī)器各有優(yōu)勢,要互相了解才能實現(xiàn)人機(jī)協(xié)作,但人還是人機(jī)關(guān)系的主導(dǎo)者。如此,才可能將人工智能引向人機(jī)合作的發(fā)展道路。