歐盟發(fā)布人工智能道德準(zhǔn)則草案,未經(jīng)同意的識(shí)別受爭(zhēng)議

責(zé)任編輯:zsheng

2019-01-07 11:50:20

摘自:澎湃新聞

歐盟近年來一直宣稱自己是“可信賴人工智能”的推動(dòng)者。12月18日,歐盟人工智能高級(jí)別專家組(AI HLEG)正式向社會(huì)發(fā)布了一份人工智能道德準(zhǔn)則草案(DRAFT ETHICS GUIDELINES FOR TRUSTWORTHY AI,以下簡(jiǎn)稱草案),該草案被視為是歐洲制造“可信賴人工智能”的討論起點(diǎn)。

歐盟近年來一直宣稱自己是“可信賴人工智能”的推動(dòng)者。12月18日,歐盟人工智能高級(jí)別專家組(AI HLEG)正式向社會(huì)發(fā)布了一份人工智能道德準(zhǔn)則草案(DRAFT ETHICS GUIDELINES FOR TRUSTWORTHY AI,以下簡(jiǎn)稱草案),該草案被視為是歐洲制造“可信賴人工智能”的討論起點(diǎn)。 這份草案首先為“可信賴人工智能”提出了一個(gè)官方解釋。草案認(rèn)為,“可信賴人工智能”有兩個(gè)必要的組成部分:首先,它應(yīng)該尊重基本權(quán)利、規(guī)章制度、核心原則及價(jià)值觀,以確保“道德目的”,其次,它應(yīng)該在技術(shù)上強(qiáng)健且可靠,因?yàn)榧词褂辛己玫囊鈭D,缺乏對(duì)技術(shù)的掌握也會(huì)造成無意的傷害。

圍繞這兩大要素,草案給出了“可信賴人工智能”的框架。草案強(qiáng)調(diào),其目的不是給出另一套人工智能的價(jià)值和原則列表,而在于為人工智能系統(tǒng)提供具體實(shí)施和操作層面的指導(dǎo)。

草案共37頁,第一章通過闡述人工智能應(yīng)該遵守的基本權(quán)利、原則和價(jià)值觀,試圖確保人工智能的道德目的。根據(jù)第一章所闡述的原則,第二章給出了實(shí)現(xiàn)“可信賴人工智能”的準(zhǔn)則和詳細(xì)要求,既涉及道德目的,也涉及技術(shù)穩(wěn)健性,既有技術(shù)層面的要求,也有非技術(shù)層面的要求。第三章則為“可信賴人工智能”提供了一張具體但非窮盡的評(píng)估列表。

草案指出,其提出的準(zhǔn)則并非旨在取代任何形式的政策和規(guī)章,同時(shí),這些準(zhǔn)則應(yīng)該被視為活文件,需要定期更新以適應(yīng)技術(shù)發(fā)展的需求。

草案的一大亮點(diǎn)在于其特辟一個(gè)章節(jié)討論人工智能所引發(fā)的爭(zhēng)議性問題。這些問題引起了歐盟人工智能高級(jí)別專家組的激烈討論且尚未在組內(nèi)達(dá)成一致意見。

位于列表第一的爭(zhēng)議性問題是“未經(jīng)知情同意的識(shí)別”。有跡象表明利用人臉識(shí)別對(duì)公民進(jìn)行監(jiān)控的情況開始在歐洲出現(xiàn)。不久前,英國(guó)警方宣布,他們正在倫敦對(duì)圣誕節(jié)的購物者們進(jìn)行人臉識(shí)別的測(cè)試。人工智能中的人臉識(shí)別等技術(shù)使得公共或私人組織能夠有效的識(shí)別個(gè)人。草案認(rèn)為,“為了維護(hù)歐洲公民的自主權(quán),人工智能的這一使用需要得到適當(dāng)?shù)目刂?rdquo;。具體而言,區(qū)分個(gè)體識(shí)別與個(gè)體跟蹤、目標(biāo)監(jiān)視與大規(guī)模監(jiān)視對(duì)于實(shí)現(xiàn)“可信賴人工智能”至關(guān)重要。

另一個(gè)專家組熱議的話題是“隱蔽的人工智能系統(tǒng)”。發(fā)展人工智能的其中一種目標(biāo)是建立像人一樣的系統(tǒng),但越來越像人的人工智能系統(tǒng)卻會(huì)給人類帶來了困擾。草案認(rèn)為,一個(gè)人必須總是知道他是在與人類還是機(jī)器進(jìn)行交流,這一點(diǎn)也應(yīng)是AI開發(fā)和管理人員的職責(zé)。專家組提出,人們“應(yīng)當(dāng)牢記,人與機(jī)器之間的混淆會(huì)產(chǎn)生多種后果,比如依戀、影響或降低作為人的價(jià)值。因此,人形機(jī)器人和機(jī)器人的發(fā)展應(yīng)經(jīng)過仔細(xì)的道德評(píng)估。”

“致命自主武器系統(tǒng)”也是專家組重要關(guān)切之一。草案稱,目前有數(shù)量未知的國(guó)家正在研發(fā)自主武器系統(tǒng)。這些武器系統(tǒng)中有能夠選擇性瞄準(zhǔn)的導(dǎo)彈,還有具認(rèn)知能力、可在無人為干預(yù)的情況下決定作戰(zhàn)對(duì)象、時(shí)間和地點(diǎn)的學(xué)習(xí)機(jī)器等。專家組認(rèn)為這會(huì)引起不可控的軍備競(jìng)賽。

對(duì)于以上這些爭(zhēng)議話題,草案給出了一個(gè)關(guān)鍵性指導(dǎo)準(zhǔn)則。首先是AI的開發(fā)、部署和使用應(yīng)以人為中心,須反應(yīng)公民的福利、無害、人類自主、爭(zhēng)議和可解釋性等社會(huì)價(jià)值觀和道德原則。其次是評(píng)估AI對(duì)人類及其共同利益的可能影響,尤其需要注意兒童、殘障人士和少數(shù)群體等弱勢(shì)群體的情況。第三是人們需要承認(rèn)并意識(shí)到人工智能在為個(gè)人和社會(huì)帶來實(shí)質(zhì)性好處的同時(shí)也可能產(chǎn)生負(fù)面影響,人們需要“對(duì)嚴(yán)重關(guān)切的領(lǐng)域保持警惕”。

目前,草案處于征集意見階段,征集時(shí)間將于2019年1月18日截止。據(jù)悉,該草案將于2019年3月提交到歐盟委員會(huì)。

歐盟人工智能高級(jí)別專家組于2018年4月由歐盟委員會(huì)任命,組內(nèi)有52位代表學(xué)術(shù)界、工業(yè)界和民間社會(huì)的獨(dú)立專家。該專家組的主要職責(zé)是撰寫人工智能道德準(zhǔn)則并為歐盟提供政策和投資建議。

鏈接已復(fù)制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號(hào)-6京公網(wǎng)安備 11010502049343號(hào)