上周,2018中國(廣州)新一代人工智能發(fā)展戰(zhàn)略國際研討會(huì)暨高峰論壇在廣州舉辦,人工智能的法律與倫理問題也引發(fā)了與會(huì)專家的熱議。
AI能否擁有法律“人格”?
毫無疑問,引入人工智能有助于提升辦事效率,在司法領(lǐng)域輔助辦案也開始成為現(xiàn)實(shí)。
論壇上,科大訊飛醫(yī)療事業(yè)部副總裁陳德平介紹,科大訊飛聯(lián)合上海開展206工程項(xiàng)目,即“上海刑事案件智能輔助辦案系統(tǒng)”,與自動(dòng)閱卷非常相似,通過機(jī)器學(xué)習(xí)全國最頂尖的法官判案的邏輯和標(biāo)準(zhǔn),用大量的數(shù)據(jù)、案件“喂”它,讓它像人一樣能夠給出一個(gè)案件評(píng)判的標(biāo)準(zhǔn)、量刑的尺度,經(jīng)過兩年多的探索,2018年3月份在上海全市正式開始試運(yùn)行,不光是上海,目前山西、安徽、福建等地也開始嘗試將這套系統(tǒng)應(yīng)用在輔助斷案上。
不過,AI在司法輔助辦案上可以擁有多大的“權(quán)力”?廣東省法學(xué)會(huì)網(wǎng)絡(luò)與電子商務(wù)法學(xué)研究會(huì)會(huì)長、暨南大學(xué)法學(xué)院黨委書記劉穎教授介紹,辦案過程中引入人工智能分析,可以輔助檢察官進(jìn)行證據(jù)抓取、要素比對(duì),還可以協(xié)助法官根據(jù)嫌疑人的成長經(jīng)歷、犯罪記錄乃至其生活地區(qū)的犯罪率等數(shù)據(jù),以判斷再犯罪的可能性。但這也會(huì)帶來一個(gè)疑慮:人工智能協(xié)助判案有沒有正當(dāng)性?
他舉了一個(gè)例子:在美國威斯康辛州,一位罪犯申請(qǐng)減刑,陪審團(tuán)利用人工智能手段,根據(jù)他個(gè)人的成長經(jīng)歷、成長的社區(qū)的環(huán)境,做出判斷認(rèn)定他有可能犯罪并不同意緩刑。罪犯馬上上訴,“機(jī)器是某一家公司生產(chǎn)的,這個(gè)公司也許在軟件的設(shè)計(jì)上對(duì)我一個(gè)有色人種持有偏見”,于是法庭要求公司公開算法,但被公司以商業(yè)秘密為由予以拒絕。
而另一方面,“無人售貨”正成為當(dāng)下的一個(gè)熱點(diǎn),自動(dòng)售貨系統(tǒng),包括柜員機(jī)、自動(dòng)售貨機(jī)、平臺(tái)等制定的合同有沒有效?劉穎說,答案是肯定有效,但是其依據(jù)在哪里?人工智能機(jī)器只是設(shè)立機(jī)器的人的代表。2019年1月1日將實(shí)施的《電子商務(wù)法》明確規(guī)定,使用柜員機(jī)、自動(dòng)售貨機(jī)、平臺(tái)等自動(dòng)信息系統(tǒng)訂立或履行的合同對(duì)使用該系統(tǒng)的當(dāng)事人有法律效力。
“民事主體有一個(gè)發(fā)展的過程,早期被限于自由民,奴隸則被當(dāng)成客體;但隨著社會(huì)的進(jìn)步,所有生物意義上的人都成為了民事主體。后來,民事主體還包括了擬制的法人。那么為什么人工智能不可能在一定程度上擁有‘人格’呢?”劉穎說,如果人工智能具有完全的自主性,能夠承擔(dān)責(zé)任,法律就有可能賦予它法律人格。
AI或?qū)⒁l(fā)產(chǎn)權(quán)、數(shù)據(jù)安全等糾紛
在劉穎看來,一旦法律賦予人工智能以法律人格,這又可能會(huì)對(duì)當(dāng)前的人格法、刑事責(zé)任制度、知識(shí)產(chǎn)權(quán)、侵犯責(zé)任或勞動(dòng)法律制度,產(chǎn)生一系列的連鎖反應(yīng)。
2017年5月,微軟和湛廬文化合作推出了小冰原創(chuàng)詩集《陽光失了玻璃窗》,這是人類歷史上第一部100%由人工智能創(chuàng)造的詩集,也由此引發(fā)了學(xué)者的討論:對(duì)于人工智能生成的內(nèi)容,法律有沒有可能賦予它知識(shí)產(chǎn)權(quán)?
“現(xiàn)在人工智能不僅可以寫詩,還可以生產(chǎn)新聞、畫畫、創(chuàng)作音樂。我仔細(xì)看了微軟小冰機(jī)器人寫的詩集,還是不錯(cuò)的,它通過圖像識(shí)別可以做到看圖說話,比如它看到了沙漠,沙漠中有太陽,它可能就聯(lián)想到‘大漠孤煙直’,就可以寫出一段文字。”騰訊研究院法律研究中心副主任、首席研究員蔡雄山說,知識(shí)產(chǎn)權(quán)的歸屬也就成為一個(gè)難題:我創(chuàng)造了一個(gè)軟件,寫了很多詩,當(dāng)我把這個(gè)軟件賣了,它又出很多本詩集,獲得的收益比軟件還值錢,這肯定會(huì)引起一些產(chǎn)權(quán)糾紛。
劉穎說,如果說人工智能是有法律主體資格的,那么以后要不要給工廠里進(jìn)行勞動(dòng)的機(jī)器人制定一個(gè)機(jī)器人勞動(dòng)合同法?再進(jìn)一步往下發(fā)展,人工智能是否要承擔(dān)刑事責(zé)任,作為刑事責(zé)任能力的主體?
此外,各大城市已經(jīng)陸續(xù)發(fā)放路測(cè)牌,無人駕駛的汽車發(fā)生事故之后責(zé)任怎么判定?蔡雄山說,到L4級(jí)和L5級(jí)階段,不僅將實(shí)現(xiàn)完全的自動(dòng)駕駛,而且汽車也將不再有方向盤,人也無法接管汽車,一旦出現(xiàn)責(zé)任事故誰來承擔(dān)刑事責(zé)任,是生產(chǎn)汽車的廠商還是智能系統(tǒng)廠商?
AI還將引發(fā)數(shù)據(jù)安全的問題。“在人工智能時(shí)代,數(shù)據(jù)已經(jīng)成為像石油和天然氣一樣重要,但AI系統(tǒng)需要數(shù)據(jù)‘喂養(yǎng)’,如何保護(hù)個(gè)人數(shù)據(jù)并區(qū)分非個(gè)人數(shù)據(jù)?比如無人駕駛汽車行駛匯總的數(shù)據(jù),哪些可以交易?廣東將建數(shù)據(jù)集群應(yīng)用,如果數(shù)據(jù)產(chǎn)權(quán)不清晰,是否可以集中在一起?”蔡雄山說。
將社會(huì)倫理原則嵌入AI系統(tǒng)中
“在國外,關(guān)于人工智能倫理規(guī)范的文本已有不少,而中國還沒有成行的文本。”蔡雄山說,如何讓人工智能符合人類社會(huì)的各種規(guī)范和價(jià)值,最大化其好處,是構(gòu)建普惠人工智能和有益人工智能必須解決的問題。
對(duì)此,他也提出了一些自己的建議,人工智能倫理應(yīng)該遵循的一些基本原則:首先是自由原則,保障人的權(quán)利和自由,加強(qiáng)隱私保護(hù),防止數(shù)據(jù)被濫用;其次是正義原則,確保算法決策的透明性,保障人工智能的權(quán)益在世界范圍內(nèi)公平分配,縮小數(shù)字鴻溝;第三個(gè)是福祉原則,要促進(jìn)可持續(xù)發(fā)展,避免軍備競(jìng)賽,要應(yīng)對(duì)人工智能帶來的就業(yè)影響等;第四是合倫理原則,把社會(huì)的倫理原則能夠嵌入到人工智能系統(tǒng)上,讓倫理設(shè)計(jì)和人類的規(guī)范相符合;此外還包括安全原則,保障安全,以及責(zé)任原則,應(yīng)該探索人工智能應(yīng)用的監(jiān)管制度,保障安全,促進(jìn)發(fā)展。
他山之石,可以攻玉。歐盟議會(huì)法律事務(wù)委員會(huì)也專門研究與機(jī)器人和人工智能發(fā)展相關(guān)的法律問題,早在2016年5月,該委員會(huì)提出了兩個(gè)建議,第一個(gè)是對(duì)機(jī)器人適用強(qiáng)制保險(xiǎn)機(jī)制,這類似于針對(duì)機(jī)動(dòng)車的強(qiáng)制險(xiǎn),由機(jī)器人的生產(chǎn)者或者所有者負(fù)責(zé)購買,以便對(duì)機(jī)器人造成的損害進(jìn)行責(zé)任分配。其次是設(shè)立賠償基金;這一制度有兩大目的,其一,對(duì)強(qiáng)制險(xiǎn)未予覆蓋的損害進(jìn)行賠償,其二,讓投資人、生產(chǎn)者、消費(fèi)者等多方主體參與這一機(jī)制,從而形成賠償基金。
針對(duì)人工智能可能造成的數(shù)字鴻溝擴(kuò)大,來自韓國的數(shù)字智力商數(shù)研究所創(chuàng)始人樸宥顯博士認(rèn)為,應(yīng)該讓教育使孩子成為AI時(shí)代的主人,由此提出了“數(shù)商”的概念,她說,前兩次工業(yè)革命時(shí)代提出了IQ,以適應(yīng)工廠自動(dòng)化技術(shù)的需要,而在工業(yè)3.0時(shí)代,城市化的浪潮下需要人與人的交融,于是EQ應(yīng)運(yùn)而生,而進(jìn)入工業(yè)4.0時(shí)代,還需要一個(gè)新的數(shù)商,通過教育幫助孩子面對(duì)新的風(fēng)險(xiǎn)。
“人工智能進(jìn)入大眾視野,大家一定會(huì)記得阿西莫夫三大定律,用一句話來說就是,比人類更厲害的其實(shí)不是人工智能,而是掌握了人工智能的人類。”陳德平說。
延伸
各地關(guān)于AI倫理的
法律探討
聯(lián)合國 2016年8月,COMEST發(fā)布“機(jī)器人倫理初步報(bào)告草案”,機(jī)器人不僅需要尊重人類社會(huì)的倫理規(guī)范,而且需要將特定倫理準(zhǔn)備嵌入機(jī)器人系統(tǒng)中。
英國 《機(jī)器人與人工智能》呼吁加強(qiáng)人工智能倫理研究,最大化人工智能的益處,并尋求最小化其潛在威脅的方法。
美國 《國家人工智能研發(fā)戰(zhàn)略計(jì)劃》提出開展人工智能倫理研究,研發(fā)新的方法來實(shí)現(xiàn)人工智能與人類社會(huì)的法律、倫理等規(guī)范和價(jià)值相一致。
IEEE(電氣和電子工程師協(xié)會(huì)) 《合倫理設(shè)計(jì):利用人工智能和自主系統(tǒng)最大化人類福祉的愿景(第一版)》,鼓勵(lì)優(yōu)先考慮倫理問題。
業(yè)界 2017年Asilomar會(huì)議提出人工智能23條原則,涉及人工智能倫理和價(jià)值,推動(dòng)有益人工智能發(fā)展,其中提及,將人類規(guī)范和道德價(jià)值嵌入人工智能系統(tǒng)。
名詞解釋
阿西莫夫三大定律
科幻作家阿西莫夫于1942年首次明確提出“機(jī)器人三定律”。
第一定律:機(jī)器人不得傷害人類個(gè)體,或者目睹人類個(gè)體將遭受危險(xiǎn)而袖手不管;
第二定律:機(jī)器人必須服從人給予它的命令,當(dāng)該命令與第一定律沖突時(shí)例外;
第三定律:機(jī)器人在不違反第一、第二定律的情況下要盡可能保護(hù)自己的生存。