據(jù)報(bào)道,在中國(guó)天津舉行的世界經(jīng)濟(jì)論壇新領(lǐng)軍者年會(huì)上,人工智能和機(jī)器學(xué)習(xí)主管凱-弗思-巴特菲爾德(Kay Firth-Butterfield)稱,兩三年前,極少有人會(huì)提出使用人工智能的道德問(wèn)題。
但是,她說(shuō),道德問(wèn)題現(xiàn)在“開(kāi)始變得突出”。“這一方面是因?yàn)槲覀冊(cè)跉W洲有一般數(shù)據(jù)保護(hù)法案在關(guān)注隱私問(wèn)題,另一方面是因?yàn)橐恍┤斯ぶ悄芩惴ù嬖诿黠@的問(wèn)題。”
偏見(jiàn)的認(rèn)定:
機(jī)器人存在偏見(jiàn)?還是算法?
從理論上來(lái)說(shuō),機(jī)器人應(yīng)該是沒(méi)有偏見(jiàn)的。但是,近些年,有很多事情表明算法開(kāi)始變得有偏見(jiàn)。
幾年前,谷歌因其圖像識(shí)別算法把非裔美國(guó)人識(shí)別為“大猩猩”而遭到了猛烈批評(píng)。今年初,有報(bào)道稱,谷歌還沒(méi)有解決這個(gè)問(wèn)題,只是簡(jiǎn)單地阻止其圖像識(shí)別軟件來(lái)識(shí)別大猩猩。
類似的問(wèn)題在不斷地出現(xiàn),這也表明了尋找到解決問(wèn)題的方法刻不容緩。
而解決偏見(jiàn)的方法,必須確保兩點(diǎn):1.確保人工智能高速發(fā)展,為人類謀福利;2.同時(shí)解決人工智能在隱私、偏見(jiàn)、透明度和責(zé)任感等方面的道德問(wèn)題。
中國(guó)科技行業(yè):
培養(yǎng)的科技人才可一定程度上填補(bǔ)空白
而在討論解決偏見(jiàn)的過(guò)程中,巴特菲爾德特別提到了中國(guó)科技行業(yè)。
她說(shuō),現(xiàn)在沒(méi)有足夠的人工智能工程師來(lái)滿足行業(yè)內(nèi)的需求。中國(guó)在努力培訓(xùn)更多的人工智能工程師和數(shù)據(jù)科學(xué)家,這可以在一定程度上填補(bǔ)科技行業(yè)的人才空白。
這足以見(jiàn)得,中國(guó)科技人才在未來(lái)解決人工智能偏見(jiàn)的這個(gè)全球性的課題上,發(fā)揮著重要作用。