機(jī)器學(xué)習(xí)算法無處不在。除了Facebook和Google之外。其他公司也正在利用它們提供個性化的教育服務(wù)和先進(jìn)的商業(yè)情報服務(wù),來對抗癌癥和檢測假冒商品。從農(nóng)業(yè)到制藥。從AI控制的自主車輛到臨床決策輔助軟件。
這項(xiàng)技術(shù)將使我們集體富裕,變得更有能力來提供人類福利,人權(quán),人類正義和培養(yǎng)我們在社區(qū)生活中所需的美德。我們應(yīng)該歡迎它,盡我們的所能促進(jìn)它。
但與任何新技術(shù)一樣,同時我們也面臨著一些道德挑戰(zhàn)。包括新技術(shù)是否公平透明?這些好處是否能讓全民共享?他們會加強(qiáng)現(xiàn)有的不平等嗎?
開發(fā)和使用AI系統(tǒng)的組織需要遵循一定的道德準(zhǔn)則來指導(dǎo)他們面對已經(jīng)存在于我們之間的和未來有可能出現(xiàn)的挑戰(zhàn)。
去年,我所在的行業(yè)協(xié)會 - 軟件和信息行業(yè)協(xié)會發(fā)布了一個關(guān)于人工智能和數(shù)據(jù)分析道德準(zhǔn)則的問題簡報,以應(yīng)對這些挑戰(zhàn)。它依據(jù)古典的道德倫理權(quán)利,福利和傳統(tǒng)美德,敦促組織仔細(xì)檢查他們的數(shù)據(jù)實(shí)踐。
公司需要來恢復(fù)其在商業(yè)道德方面的思考能力,特別是在有關(guān)收集和使用信息的決策方面。這些原則是一個切實(shí)可行的指南。
SIIA不是唯一一個試圖將道德考量引入AI和數(shù)據(jù)分析領(lǐng)域的實(shí)體。計(jì)算機(jī)科學(xué)小組也秉持著公平,問責(zé)和透明的原則為機(jī)器學(xué)習(xí)(FAT / ML)起草了自己的規(guī)范。在Asilomar召開會議的另一組計(jì)算機(jī)科學(xué)家則起草了更廣泛的規(guī)范。IEEE提出了與設(shè)計(jì)中的道德價值相關(guān)的原則。ACM最近發(fā)布了一套旨在能夠確保大眾公平使用AI算法的原則。信息問責(zé)基金會在其關(guān)于人工智能,道德和增強(qiáng)數(shù)據(jù)管理的報告中制定了一套非常有用的規(guī)范。
政府也為AI倫理問題努力著
2017年10月的經(jīng)合組織(OECD)會議上,針對人工智能的一些不同的倫理方法,在智能機(jī)器、智能政策的會議上被公開。日本人在2016年G7會議上和意大利人在2017年G&會上提出了對AI的道德規(guī)則的需求。最近的G7會議于2018年3月28日結(jié)束,期間發(fā)表了一份關(guān)于人工智能的聲明,鼓勵人們研究“審查人工智能的倫理問題”。美國政府也在最近宣布將“與我們的盟友合作”以促進(jìn)對“人工智能技術(shù)”的信任。
盟委員會在其最近發(fā)布的歐洲人工智能通訊中,提出在人工智能聯(lián)盟內(nèi)制定“人工智能道德準(zhǔn)則”,它來源于歐洲科學(xué)和新技術(shù)道德倫理組織發(fā)表的聲明。
這都是積極的發(fā)展。但需要注意幾點(diǎn)。抽象的道德聲明只會讓我們止步不前。可行的道德原則需要考慮AI在特定情況下的使用方式。例如,自主武器所涉及的倫理問題與使用人工智能進(jìn)行累犯評分或就業(yè)篩查所涉及的倫理問題就有很大的不同。這就是為什么SIIA提供了關(guān)于如何將權(quán)利、正義、福利和美德的一般原則應(yīng)用于不同的案例分析來確保算法公平的具體建議。
此外,沒有只適用于人工智能,而不適用于其他數(shù)據(jù)分析和預(yù)測模式的特殊道德準(zhǔn)則。需要在人工智能應(yīng)用的開發(fā)和實(shí)施中應(yīng)用和解釋,尊重權(quán)利,促進(jìn)福利和培養(yǎng)人類美德的道德要求,這需要進(jìn)行大量艱苦的概念和實(shí)踐工作才能做到這一點(diǎn)。但這與為AI尋求獨(dú)特的規(guī)范性指導(dǎo)方針并不相同。
Elon Musk等一些人認(rèn)為,必須超越道德標(biāo)準(zhǔn),才能達(dá)到監(jiān)管目的
在某些特定的領(lǐng)域里,為了部署技術(shù),有些問題是緊急的,必須要解決。有必要搞清楚自動駕駛汽車的責(zé)任,或者在食品和藥物管理局為臨床決策支持系統(tǒng)制定一個監(jiān)管框架。
但正如AI沒有特殊的道德原則一樣,也不需要設(shè)置任何單純適用于AI的特殊法規(guī)或法律。AI涵蓋了無限多種分析技術(shù);它根本不是實(shí)體企業(yè)。由國家機(jī)構(gòu)實(shí)施的一般的人工智能管理,應(yīng)該就像擁有一個用于統(tǒng)計(jì)分析的監(jiān)管機(jī)構(gòu)一樣!
2016年人工智能百年研究報告總結(jié)道:“一般來說,對人工智能進(jìn)行規(guī)范的嘗試是錯誤的,因?yàn)闆]有AI的明確定義(它不是任何東西),而且風(fēng)險和需要考慮的因素在不同的領(lǐng)域有很大的不同。”
這并不意味著人工智能可以不受管制。目前的法律法規(guī)仍然適用。使用AI的時候,沒有可以免于監(jiān)獄的免費(fèi)卡。這不是可以違反法律的辯解。公司不能逃避公平貸款或公平住房法的責(zé)任,例如,不能因?yàn)樗麄兘忉屨f他們使用了人工智能技術(shù)而可以區(qū)別對待。
無論監(jiān)管狀況如何,組織都需要有人來指導(dǎo)他們?nèi)绾芜m應(yīng)在這項(xiàng)技術(shù)付諸實(shí)踐時所面臨的諸多道德挑戰(zhàn)。善良,尊重人格,正義和培養(yǎng)美德的準(zhǔn)則可以為人工智能和先進(jìn)的數(shù)據(jù)分析技術(shù)提供路線圖和一些重要的保障。
版權(quán)聲明:本文為企業(yè)網(wǎng)D1Net編譯,轉(zhuǎn)載需注明出處為:企業(yè)網(wǎng)D1Net,如果不注明出處,企業(yè)網(wǎng)D1Net將保留追究其法律責(zé)任的權(quán)利。