為防范重大風(fēng)險(xiǎn) 需針對(duì)人工智能應(yīng)用立法

責(zé)任編輯:zsheng

2019-03-05 09:11:13

摘自:北京青年報(bào)

醞釀議案 全國(guó)人大代表、致公黨中央委員邵志清

3月4日下午,在第十三屆全國(guó)人民代表大會(huì)第二次會(huì)議上海代表團(tuán)的“議案醞釀會(huì)”上,全國(guó)人大代表、致公黨中央委員邵志清,提出關(guān)于制定人工智能應(yīng)用管理法的議案。邵志清表示,對(duì)人工智能的應(yīng)用管理,重點(diǎn)應(yīng)該圍繞倫理道德、資源獲取、主體認(rèn)定、行為認(rèn)定和責(zé)任劃分等方面進(jìn)行立法。

其中,在倫理道德方面,明確禁止應(yīng)用人工智能技術(shù)實(shí)施違反人類(lèi)倫理道德的行為,特別是在基因工程、生命科學(xué)、情感意識(shí)等方面,“用法律為智能社會(huì)劃出倫理道德的邊界,讓人工智能服務(wù)造福而不是困擾危害人類(lèi)社會(huì)”。

現(xiàn)象

AI帶來(lái)變革 社會(huì)問(wèn)題凸顯

邵志清代表指出,隨著新一代信息技術(shù)的快速發(fā)展,人工智能正對(duì)人類(lèi)生產(chǎn)生活方式帶來(lái)全方位的深刻變革。“我國(guó)人工智能在電子商務(wù)、自動(dòng)駕駛、生活服務(wù)、醫(yī)療健康、工業(yè)機(jī)器人等領(lǐng)域的應(yīng)用走在世界前列。”

他表示,在造福人類(lèi)的同時(shí),人工智能所帶來(lái)的社會(huì)問(wèn)題也逐漸顯現(xiàn),“開(kāi)始從技術(shù)領(lǐng)域、民事領(lǐng)域向刑事領(lǐng)域轉(zhuǎn)變。比如:利用使用人工智能技術(shù)侵犯公民個(gè)人信息、競(jìng)爭(zhēng)對(duì)手商業(yè)秘密,甚至危害人的健康生命、社會(huì)的安全穩(wěn)定。”

邵志清代表舉例說(shuō),2017年9月,浙江警方破獲全國(guó)首例運(yùn)用人工智能實(shí)施犯罪的案件。涉案平臺(tái)利用人工智能技術(shù)快速識(shí)別驗(yàn)證碼,截獲、販賣(mài)了10億多組公民個(gè)人信息,供合作團(tuán)伙進(jìn)行網(wǎng)絡(luò)詐騙。2015年7月英國(guó)《金融時(shí)報(bào)》報(bào)道了德國(guó)大眾公司的機(jī)器人“殺人事件”,一名工作人員被正在安裝的機(jī)器人突然抓起,重重摔向金屬板而不治身亡。“包括去年在生物領(lǐng)域,人工智能的運(yùn)用也帶來(lái)了一些困擾。”

挑戰(zhàn)

若機(jī)器致人傷亡 歸責(zé)成難題

邵志清表示,現(xiàn)有的案例中,有的是機(jī)器通過(guò)自主學(xué)習(xí)、提升識(shí)別能力幫助人實(shí)施犯罪,有的是因?yàn)闄C(jī)器完全自主的行為導(dǎo)致人員傷亡,這對(duì)如何認(rèn)定責(zé)任主體和行為意愿提出了全新的挑戰(zhàn)。“傳統(tǒng)的刑法領(lǐng)域,只有自然人才是刑法規(guī)制的主體,在人工智能應(yīng)用場(chǎng)景下,很多機(jī)器成為了主體。”另外,機(jī)器的主觀意愿的認(rèn)定也面臨著困難。“對(duì)于這類(lèi)問(wèn)題,現(xiàn)有的法律難以規(guī)范。”

此外,2016年以來(lái),一些國(guó)家和機(jī)構(gòu)對(duì)人工智能法律制訂進(jìn)行了一些探索。以自動(dòng)駕駛領(lǐng)域?yàn)槔?,德?guó)對(duì)《德國(guó)道路交通條例》所規(guī)定的“駕駛員在車(chē)輛行駛過(guò)程中全程保持警惕”、“駕駛員的手不能離開(kāi)方向盤(pán)”等條文啟動(dòng)立法修正。

近幾年,我國(guó)也對(duì)自動(dòng)駕駛車(chē)輛測(cè)試方面進(jìn)行管理規(guī)范,2017年,工業(yè)和信息化部開(kāi)始就《智能網(wǎng)聯(lián)汽車(chē)公共道路適應(yīng)性驗(yàn)證管理規(guī)范(試行)》初稿組織業(yè)界和專(zhuān)家討論。隨后,多地發(fā)布自動(dòng)駕駛車(chē)輛道路測(cè)試管理實(shí)施細(xì)則。“這些探索和實(shí)踐,為制定人工智能應(yīng)用管理法提供了有益的參考和依據(jù)。”他補(bǔ)充道。

觀點(diǎn)

需要針對(duì)應(yīng)用、歸責(zé)等進(jìn)行立法

邵志清指出,為了防范重大風(fēng)險(xiǎn),需要針對(duì)人工智能的具體應(yīng)用進(jìn)行立法。“人工智能的應(yīng)用管理,應(yīng)該重點(diǎn)圍繞倫理道德、資源獲取、主體認(rèn)定、行為認(rèn)定、責(zé)任劃分等方面進(jìn)行立法。”

在倫理道德方面,明確禁止應(yīng)用人工智能技術(shù)實(shí)施違反人類(lèi)倫理道德的行為,特別是在基因工程、生命科學(xué)、情感意識(shí)等方面,用法律為智能社會(huì)劃出倫理道德的邊界,讓人工智能服務(wù)造福而不是困擾危害人類(lèi)社會(huì)。

在資源獲取方面,明確禁止采集個(gè)人隱私、商業(yè)秘密、國(guó)家機(jī)密的資料、信息、數(shù)據(jù),避免被人和機(jī)器惡意利用,從源頭上遏制人工智能的不法應(yīng)用。

在主體認(rèn)定上,明確具有自主學(xué)習(xí)、思考、行動(dòng)能力的機(jī)器人成為適格主體的應(yīng)用場(chǎng)景和應(yīng)用前提等,明確機(jī)器人與自然人主體進(jìn)行區(qū)分認(rèn)定和共同認(rèn)定的條件和依據(jù)等。

在行為認(rèn)定上,明確認(rèn)定機(jī)器人意圖的原則,特別是要解決機(jī)器人基于人工智能進(jìn)行獨(dú)立判斷和決定所實(shí)施侵害的主觀方面認(rèn)定問(wèn)題。

在責(zé)任劃分上,明確責(zé)任劃分和處罰的原則。一旦有侵害發(fā)生,讓智能機(jī)器人的使用者、制造者、機(jī)器人本身承擔(dān)嚴(yán)格區(qū)分的相關(guān)責(zé)任

鏈接已復(fù)制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號(hào)-6京公網(wǎng)安備 11010502049343號(hào)