由于嚴重的性別差異問題,人工智能存在偏見的風險

責任編輯:zsheng

2019-01-05 11:15:13

摘自:砍柴網

人工智能需要由各種各樣的開發(fā)者來創(chuàng)造,以防止產生偏見,但世界經濟論壇(WEF)發(fā)現了一個嚴重的性別差異。

人工智能需要由各種各樣的開發(fā)者來創(chuàng)造,以防止產生偏見,但世界經濟論壇(WEF)發(fā)現了一個嚴重的性別差異。

一段時間以來,STEM職業(yè)中的性別差距一直是個問題,但最終產品往往不太關心它是由什么性別開發(fā)的。人工智能將無處不在,重要的是它能代表它所服務的對象。

在本周發(fā)布的一份報告中,世界經濟論壇寫道:

“婦女和男子在這一深刻的經濟和社會變革進程中的平等貢獻至關重要。

社會比以往任何時候都更不能失去一半人類的技能、思想和觀點,以實現管理良好的創(chuàng)新和技術所能帶來的更繁榮和以人為中心的未來的希望。”

令人震驚的是,世界經濟論壇的報告發(fā)現,不到四分之一的行業(yè)職位由女性擔任。從這個角度來看,人工智能行業(yè)的性別差距大約是其他行業(yè)人才池的三倍。

世界經濟論壇人工智能和機器學習主管凱•菲爾斯-巴特菲爾德(Kay Firth-Butterfield)表示:“創(chuàng)造人工智能的人代表整個人口,這一點絕對至關重要。”

在編碼方面的偏見可能會讓人工智能在某些社會群體中表現得比其他群體更好,這可能會給他們帶來優(yōu)勢。這種偏見很少是有意的,但已經在人工智能的發(fā)展中找到了自己的方式。

美國公民自由聯盟(ACLU)最近對亞馬遜的面部識別技術進行了一次測試,發(fā)現它錯誤地將那些膚色較深的人貼上了罪犯的標簽。

同樣,NIST和達拉斯德克薩斯大學(University of Texas)的研究人員在2010年進行的一項研究發(fā)現,在東亞設計和測試的算法在識別東亞人方面做得更好,而在西方國家設計的算法在識別白種人方面更準確。

最近,谷歌在Gmail中發(fā)布了一個預測文本功能,該算法對使用女性代詞的護士進行了有偏見的假設。

很明顯,解決性別差距比以往任何時候都更加緊迫。

鏈接已復制,快去分享吧

企業(yè)網版權所有?2010-2024 京ICP備09108050號-6京公網安備 11010502049343號