然而,“替代目標(biāo)”成為這個過程中的一個問題,因為對許多理想的工作特征的評估很難直接操作。如今,業(yè)界的一些熱門詞匯包括“創(chuàng)造力”、“溝通”和“生產(chǎn)力”,所有這些都是難以衡量的。衡量創(chuàng)造力的最常見的方法是替代用途測試,在這種測試中,人們會為常見的項目提供非常規(guī)的用途(比如,列舉出回形針的25種用法,用以檢測應(yīng)聘者“不走尋常路”的能力,譯者注)?;谶@一衡量標(biāo)準(zhǔn),員工可能會被分配一個“創(chuàng)造力能力傾向”分?jǐn)?shù),這個分?jǐn)?shù)會加入訓(xùn)練數(shù)據(jù)集,用以篩選具備相同特質(zhì)的員工。問題是,替代測試只是測試創(chuàng)造力的一個方面,即發(fā)散思維。它忽略了創(chuàng)造力的所有其他方面,而有些方面可能對公司文化非常有價值。其結(jié)果是,公司招聘了一大批具備“創(chuàng)造力”的員工,然而他們卻都是以同樣的方式來進(jìn)行“創(chuàng)造”的:這很諷刺,也很無聊。
我們已經(jīng)將機(jī)器學(xué)習(xí)算法用于做出重要決策的可能性盡量理想化了,但事實是,機(jī)器無法理解客觀性、真實性、中立性或平等性。而當(dāng)人類生命受到威脅時,所有這些特征都是重要的考慮因素。我們將何去何從?
結(jié)語
盡管我們已經(jīng)闡明了人工智能模型可能帶來的許多問題,但仍舊有很多理由可以支撐我們從以人為中心的決策方式轉(zhuǎn)變?yōu)榛谌斯ぶ悄艿臎Q策方式。正如前面提到的,盡管人工智能存在種種缺陷,但它仍然比人類更客觀。正因為如此,我們看到人工智能在基于決策和預(yù)測的任務(wù)中的應(yīng)用仍舊在持續(xù)深入。但是,較少的偏見并不等同于沒有偏見,當(dāng)算法做出有偏見的決定時會發(fā)生什么?我們?nèi)绾螞Q定誰應(yīng)該為此承擔(dān)責(zé)任?畢竟我們沒辦法去懲罰一個有偏見的預(yù)測算法(能怎么辦呢,刪除它?)
可以說,跟蹤問責(zé)制的最佳方法是對人工智能決策過程進(jìn)行準(zhǔn)確和詳細(xì)的記錄。也就是說,做出決定的過程和數(shù)據(jù)必須是透明的,這樣如果有任何問題發(fā)生,第三方審計師就能夠追溯導(dǎo)致結(jié)果的步驟,以找到問題的根源。人們已經(jīng)為此制定了法案和法律,以保持相關(guān)實踐的透明度。
當(dāng)然,審計方法本身并不是沒有問題的。對于具有大數(shù)據(jù)集的人工智能來說,審計并不總是可行的,審計也不總是適用于深度學(xué)習(xí)系統(tǒng),后者不只面臨大數(shù)據(jù)集的問題,還面臨復(fù)雜的計算網(wǎng)絡(luò)的挑戰(zhàn)。算法的自主性和透明性似乎互相矛盾,隨著算法在‘學(xué)習(xí)’和調(diào)整方面變得越來越好,人們就更難理解偏見發(fā)生在哪里了。雖然審計對于更簡單的模型是有效的,但我們可能需要一種不同的方法來減輕復(fù)雜算法的偏見。
另一種減輕偏見的方法是針對AI的訓(xùn)練者和創(chuàng)建者。通過讓他們意識到自己的偏見,我們有更好的機(jī)會將這些偏見排除在算法之外(比如,在設(shè)計谷歌翻譯時考慮中性性別代詞)。值得注意的是,人類的偏見是客觀存在的,而且很難減輕,因為它是一種進(jìn)化特征,但我們至少可以不斷意識到我們自己的大腦容易受到偏見的影響??傊?,如果我們不斷學(xué)習(xí)、自查、保持明智并做出正確的選擇,算法將可以為緩解由來已久的偏見作出貢獻(xiàn)。
“繼續(xù)努力使文化變得更好,并不斷更新人工智能,以跟蹤文化的發(fā)展。這才是上策。”