人工智能需要解決怎樣的偏見(jiàn)問(wèn)題?

責(zé)任編輯:zsheng

2018-10-13 09:53:33

摘自:電子發(fā)燒友網(wǎng)

隨著人工智能的迅速發(fā)展,在幫助人類解決各種問(wèn)題的同時(shí),在應(yīng)用過(guò)程中也出現(xiàn)越來(lái)越多此前從未考慮到的問(wèn)題。

隨著人工智能的迅速發(fā)展,在幫助人類解決各種問(wèn)題的同時(shí),在應(yīng)用過(guò)程中也出現(xiàn)越來(lái)越多此前從未考慮到的問(wèn)題。

據(jù)報(bào)道,在中國(guó)天津舉行的世界經(jīng)濟(jì)論壇新領(lǐng)軍者年會(huì)上,人工智能和機(jī)器學(xué)習(xí)主管凱-弗思-巴特菲爾德(Kay Firth-Butterfield)稱,兩三年前,極少有人會(huì)提出使用人工智能的道德問(wèn)題。

但是,她說(shuō),道德問(wèn)題現(xiàn)在“開(kāi)始變得突出”。“這一方面是因?yàn)槲覀冊(cè)跉W洲有一般數(shù)據(jù)保護(hù)法案在關(guān)注隱私問(wèn)題,另一方面是因?yàn)橐恍┤斯ぶ悄芩惴ù嬖诿黠@的問(wèn)題。”

偏見(jiàn)的認(rèn)定:

機(jī)器人存在偏見(jiàn)?還是算法?

從理論上來(lái)說(shuō),機(jī)器人應(yīng)該是沒(méi)有偏見(jiàn)的。但是,近些年,有很多事情表明算法開(kāi)始變得有偏見(jiàn)。

幾年前,谷歌因其圖像識(shí)別算法把非裔美國(guó)人識(shí)別為“大猩猩”而遭到了猛烈批評(píng)。今年初,有報(bào)道稱,谷歌還沒(méi)有解決這個(gè)問(wèn)題,只是簡(jiǎn)單地阻止其圖像識(shí)別軟件來(lái)識(shí)別大猩猩。

類似的問(wèn)題在不斷地出現(xiàn),這也表明了尋找到解決問(wèn)題的方法刻不容緩。

而解決偏見(jiàn)的方法,必須確保兩點(diǎn):1.確保人工智能高速發(fā)展,為人類謀福利;2.同時(shí)解決人工智能在隱私、偏見(jiàn)、透明度和責(zé)任感等方面的道德問(wèn)題。

中國(guó)科技行業(yè):

培養(yǎng)的科技人才可一定程度上填補(bǔ)空白

而在討論解決偏見(jiàn)的過(guò)程中,巴特菲爾德特別提到了中國(guó)科技行業(yè)。

她說(shuō),現(xiàn)在沒(méi)有足夠的人工智能工程師來(lái)滿足行業(yè)內(nèi)的需求。中國(guó)在努力培訓(xùn)更多的人工智能工程師和數(shù)據(jù)科學(xué)家,這可以在一定程度上填補(bǔ)科技行業(yè)的人才空白。

這足以見(jiàn)得,中國(guó)科技人才在未來(lái)解決人工智能偏見(jiàn)的這個(gè)全球性的課題上,發(fā)揮著重要作用。

鏈接已復(fù)制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號(hào)-6京公網(wǎng)安備 11010502049343號(hào)