人工智能時(shí)代的科學(xué)治理:倫理準(zhǔn)則雛形初現(xiàn)

責(zé)任編輯:zsheng

2018-07-15 11:44:48

摘自:21世紀(jì)經(jīng)濟(jì)報(bào)道

面對(duì)AI已然到來的事實(shí),“熱情擁抱論”與“智能威脅論”都甚囂塵上。

面對(duì)AI已然到來的事實(shí),“熱情擁抱論”與“智能威脅論”都甚囂塵上。

事實(shí)上,AI在發(fā)展過程中,確實(shí)帶來了新的問題:AI使得人類與機(jī)器的邊界日益模糊,帶來人機(jī)之間新型關(guān)系的困惑;借助人工智能,企業(yè)能夠在賦予用戶大量數(shù)據(jù)標(biāo)簽后讀取和理解用戶的行為偏好,或?qū)?dǎo)致技術(shù)濫用;在社交媒體中,信息推送根據(jù)用戶個(gè)人偏好的路徑送達(dá),從而形成偏見強(qiáng)化。此外,AI還可能引發(fā)“機(jī)器換人”的替代潮,并對(duì)傳統(tǒng)法律法規(guī)和社會(huì)規(guī)范提出挑戰(zhàn)。

“人工智能作為經(jīng)濟(jì)社會(huì)發(fā)展的強(qiáng)大加速器,需要裝上制動(dòng)系統(tǒng)或剎車。”近日,在發(fā)布《未來基石:人工智能的社會(huì)角色與倫理》報(bào)告時(shí),中國發(fā)展研究基金會(huì)秘書長助理、研究一部主任俞建拖表示,“這個(gè)剎車就是倫理規(guī)范和公共政策準(zhǔn)則。”

挑戰(zhàn)重重

人工智能的倫理問題已經(jīng)引起了越來越多的關(guān)注。

今年3月,F(xiàn)acebook數(shù)據(jù)泄露問題丑聞曝出,一家名為Cambridge Analytica的數(shù)據(jù)分析公司通過一個(gè)應(yīng)用程序收集了5000萬Facebook用戶的個(gè)人信息,該應(yīng)用程序詳細(xì)描述了用戶的個(gè)性、社交網(wǎng)絡(luò)以及在平臺(tái)上的參與度。7月,F(xiàn)acebook因該事件面臨英國信息委員會(huì)辦公室66.4萬美元的罰單。

同期,谷歌為美國國防部開發(fā)AI的“Maven項(xiàng)目”也備受矚目,根據(jù)該項(xiàng)目合約,谷歌向美國國防部共享了它的開源AI框架TensorFlow,同時(shí)打造“類似谷歌地圖”的監(jiān)控系統(tǒng),該系統(tǒng)可以讓美國國防部的分析師和合同商“點(diǎn)擊”任何建筑物、車輛、人群和地標(biāo)建筑,“查看與之相關(guān)的一切信息”。此后,迫于輿論壓力,谷歌方面稱,將在2019年與美國國防部合約到期后不再續(xù)約。

“AI開發(fā)和應(yīng)用過程中帶來的挑戰(zhàn),既有技術(shù)層面的,也有社會(huì)層面的。”俞建拖指出。其中,技術(shù)層面的挑戰(zhàn)包括錯(cuò)誤目的的開發(fā)、技術(shù)上的不透明和不可控、過度追求利潤目標(biāo)而不考慮技術(shù)上的平衡,以及終端的誤用和濫用。

社會(huì)層面的挑戰(zhàn)則更為嚴(yán)峻,包括對(duì)人自身認(rèn)知的困境、社會(huì)互動(dòng)協(xié)作方式的改變、數(shù)據(jù)和隱私的侵犯、不對(duì)稱信息權(quán)力的濫用、數(shù)據(jù)和技術(shù)導(dǎo)致的壟斷、偏見強(qiáng)化和族群對(duì)立、弱勢(shì)人群的邊緣化和貧困化,以及人工智能武器和恐怖活動(dòng)等。

因此,面對(duì)AI技術(shù)所帶來的挑戰(zhàn),各國政府已經(jīng)紛紛出臺(tái)一系列的政策指引和準(zhǔn)則。

資料顯示,早在數(shù)年前,韓國政府便著手?jǐn)M訂《機(jī)器人道德憲章》,美國信息技術(shù)產(chǎn)業(yè)委員會(huì)(ITI)則于2017年頒布了人工智能的14條政策準(zhǔn)則。近日,歐盟出臺(tái)了史上最嚴(yán)數(shù)據(jù)保護(hù)條例——《通用數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation,簡稱GDPR),旨在加強(qiáng)對(duì)數(shù)據(jù)的保護(hù),以大數(shù)據(jù)為“養(yǎng)料”的AI行業(yè)正是其矛頭所向。

道德準(zhǔn)則

不僅是政府在制定AI相關(guān)準(zhǔn)則,科技企業(yè)也在做同樣的事。

谷歌在Maven項(xiàng)目帶來的輿論壓力下,于今年6月申明,在人工智能開發(fā)應(yīng)用中,堅(jiān)持公平、安全、透明、隱私保護(hù)等在內(nèi)的7個(gè)準(zhǔn)則。同時(shí),谷歌方面表示不會(huì)將AI技術(shù)應(yīng)用于開發(fā)武器,不會(huì)違反人權(quán)準(zhǔn)則將AI用于監(jiān)視和收集信息,避免AI造成或加劇社會(huì)不公等。

微軟同樣提出了開發(fā)人工智能的六項(xiàng)基本原則:公平、可靠與安全、隱私與保密、包容、透明、負(fù)責(zé)。微軟公司總裁施博德(Brad Smith)表示,這六項(xiàng)基本準(zhǔn)則是為了確保人工智能能夠以一種合乎倫理的方式得以使用。“微軟認(rèn)為,要設(shè)計(jì)出可信賴的人工智能,必須采取體現(xiàn)道德原則的解決方案,在賦予計(jì)算機(jī)更大力量的同時(shí),也需要用社會(huì)倫理來引導(dǎo)它。”

施博德指出,這六項(xiàng)基本原則中,前四項(xiàng)(公平、可靠與安全、隱私與保密、包容)依賴于后兩項(xiàng)(透明、負(fù)責(zé))。“首先是透明,只有能夠有透明度才能夠確信前四大原則都得到實(shí)現(xiàn)。最后也是最重要的,也就是負(fù)責(zé),需要確保追責(zé)機(jī)制,這意味著AI并非在沒有人類監(jiān)督的情況下任意制定決策。”

不過,僅僅是單點(diǎn)的準(zhǔn)則設(shè)計(jì)還遠(yuǎn)遠(yuǎn)不夠。就此,《未來基石:人工智能的社會(huì)角色與倫理》報(bào)告建議,各國政府、產(chǎn)業(yè)界、研究人員、民間組織和其他有關(guān)利益攸關(guān)方應(yīng)就人工智能開展廣泛對(duì)話和持續(xù)合作,加快制定針對(duì)人工智能開發(fā)和應(yīng)用的倫理規(guī)范和公共政策準(zhǔn)則。

同時(shí),在社會(huì)層面,報(bào)告鼓勵(lì)高校研究機(jī)構(gòu)、企業(yè)和行業(yè)協(xié)會(huì)、投資機(jī)構(gòu)和社會(huì)組織在各自領(lǐng)域進(jìn)行相關(guān)探索和研究;在政策層面,在鼓勵(lì)引導(dǎo)社會(huì)研究和產(chǎn)品開發(fā)的同時(shí),需要重視政策和法律監(jiān)管,并加強(qiáng)國際合作,建立多層次的國際人工智能治理機(jī)制。

“我們期待更多的社會(huì)機(jī)構(gòu)、社會(huì)組織、專業(yè)機(jī)構(gòu)合作,更多人工智能研發(fā)的企業(yè)能夠履行企業(yè)社會(huì)責(zé)任,積極參與人工智能倫理規(guī)范的建設(shè)。”俞建拖指出。

鏈接已復(fù)制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號(hào)-6京公網(wǎng)安備 11010502049343號(hào)