在致亞馬遜首席執(zhí)行官杰夫貝索斯的一封信中,19組股東表示擔心,Rekognition的面部識別能力將被濫用,“違反”有色人種,移民和民間社會組織的“公民權利和人權”。 “他們說,它為向外國政府和專制政權銷售軟件奠定了基礎。
據(jù)亞馬遜稱,它將“暫停......客戶的使用權......服務[如Rekognition]”,如果它確定這些服務被“濫用”的話。但到目前為止,它已經(jīng)拒絕定義明亮的服務。 - 會觸發(fā)暫停的規(guī)則。
人工智能是一個新生的領域。Consortia和智庫如人工智能合作伙伴關系,牛津大學的AI道德規(guī)范項目,哈佛大學的AI倡議和AI4All都致力于建立初步的最佳實踐和指南。但IBM人工智能倫理的全球領導者Francesca Rossi認為,還有更多工作要做。
“每家公司都應該提出自己的原則,”她在電話采訪中告訴VentureBeat。“他們應該根據(jù)他們所處的空間來闡明他們的原則。”
與政府合同相比,其利害攸關。隨著谷歌,微軟和IBM等科技巨頭的人工智能研究人員將注意力轉(zhuǎn)向醫(yī)療保健,機器學習算法的混淆性可能會疏遠那些有利于患者的人。
例如,如果系統(tǒng)沒有明確表明他們?nèi)绾蔚贸鼋Y(jié)論,那么人們可能會對預測患者生存幾率的系統(tǒng)產(chǎn)生疑慮。(谷歌大腦團隊中的一個這樣的AI采用透明的方法,顯示哪些PDF文檔,手寫圖表和其他數(shù)據(jù)通知其結(jié)果。)
“醫(yī)生為患者設計治療[在AI的幫助下]和可以識別書籍的算法之間存在差異,”羅西解釋說。“當我們做出決定時,我們通常甚至不會認識到我們的偏見,[并且]這些偏見可以被注入訓練數(shù)據(jù)集或模型中。”
圍繞數(shù)據(jù)收集的不透明政策已經(jīng)讓一些人工智能研究人員陷入了困境。去年,英國最高隱私監(jiān)管機構(gòu)信息專員辦公室裁定,該國家的國家健康服務中心在Alphabet子公司DeepMind的AI現(xiàn)場試驗中不正確地分享了160萬患者的記錄。
“用戶想知道......人工智能已被審查過,”羅西說。“我對人工智能的看法是一個審計過程 - 一個非常嚴格的過程,通過這個過程,有人可信地查看了系統(tǒng)并分析了模型和培訓數(shù)據(jù)。”
羅西表示,同樣重要的是確保立法者,法律專家和政策團體對人工智能的潛在回報及其潛在風險有深刻的理解。
她說:“政策制定者必須接受有關AI是什么,可能出現(xiàn)的問題以及可能出現(xiàn)的問題的教育。” “對于構(gòu)建人工智能的人來說,透明和明確他們所做的事情非常重要。”
對于AI報道,請向Khari Johnson和Kyle Wiggers發(fā)送新聞提示,并向Cosette Jarrett提交帖子。