這引發(fā)了幾個(gè)道德問題。例如,預(yù)測(cè)性警務(wù)往往依賴于社區(qū)或警察巡邏隊(duì)報(bào)告的犯罪記錄,這可能導(dǎo)致反饋循環(huán)并在已經(jīng)得到嚴(yán)格監(jiān)管的社區(qū)中加強(qiáng)執(zhí)法。鑒于有報(bào)道稱Met的自動(dòng)面部識(shí)別技術(shù)誤報(bào)率為98%,因此對(duì)準(zhǔn)確性也存在擔(dān)憂。因此,我們必須小心警方資源被用于實(shí)際威脅,而不是被感知的威脅。
我們都知道,與人類一樣,技術(shù)也會(huì)犯錯(cuò)誤,并且經(jīng)常會(huì)對(duì)有色人種和女性表現(xiàn)出不公平的偏見。美國的風(fēng)險(xiǎn)評(píng)估算法,例如美國的替代性制裁懲教罪犯管理資料(Correctional Offender Management Profiling for Alternative Sanctions ,COMPAS)被發(fā)現(xiàn)間接含有強(qiáng)烈的種族偏見,這意味著黑人被告被錯(cuò)誤分類的可能性幾乎是同等情況的白人的兩倍。對(duì)于那些因?yàn)檫@些系統(tǒng)的大規(guī)模應(yīng)用而處于不利地位的人來說,這不僅僅是不道德的,也是不可接受的。
面部識(shí)別是其中一個(gè)高侵入性的方面。在使用時(shí),目標(biāo)對(duì)象在不知情或未經(jīng)同意的情況下就被攝入系統(tǒng)。例如,過去用于預(yù)測(cè)罪犯“典型”面孔的軟件依賴于社交媒體、關(guān)系、社交活動(dòng)、學(xué)校日程安排以及來自數(shù)據(jù)經(jīng)紀(jì)人的商業(yè)數(shù)據(jù)。與喊停和搜查等傳統(tǒng)警務(wù)方法的官僚控制相比,這些工具進(jìn)行預(yù)測(cè)的方式以及警察部門使用這些系統(tǒng)的做法并不透明。重要的是要確保將類似的操作規(guī)范納入機(jī)器中。
另一個(gè)需要審查的領(lǐng)域是使用評(píng)估框架或算法進(jìn)行量刑。一些人工智能系統(tǒng)可以根據(jù)個(gè)人的歷史和他們的傷害傾向來預(yù)測(cè)未來的犯罪行為。在美國,賓夕法尼亞州可能是最早一個(gè)不僅根據(jù)人們犯下的罪行做出刑事判決的州之一,量刑還要參考他們?cè)谖磥矸赶缕渌镄械目赡苄?。統(tǒng)計(jì)衍生的風(fēng)險(xiǎn)評(píng)估——基于年齡、犯罪記錄和就業(yè)等因素——將幫助法官確定判決。這一觀點(diǎn)認(rèn)為,這將有助于降低監(jiān)獄系統(tǒng)的成本和負(fù)擔(dān)。
由于預(yù)算緊張和犯罪率不斷上升,更廣泛地使用人工智能程序協(xié)助預(yù)測(cè)犯罪行為可能具有優(yōu)勢(shì)。然而,我們必須確保系統(tǒng)公平透明,而現(xiàn)在我們?nèi)匀豢梢宰龅竭@一點(diǎn)。也許實(shí)現(xiàn)這一點(diǎn)最好的辦法是建立一個(gè)監(jiān)管人工智能的國際委員會(huì),各個(gè)國家和消費(fèi)者可以參與這些系統(tǒng)的發(fā)展,并確保行為守則和法律達(dá)到國際人權(quán)標(biāo)準(zhǔn)規(guī)定的門檻。
將道德責(zé)任融入機(jī)器似乎是一項(xiàng)艱巨的任務(wù),但這是拯救這個(gè)勇敢的新技術(shù)世界的唯一途徑,使它不至于演變成一種反諷的夢(mèng)魘。