Mary Cummings是杜克大學(xué)的人類和自治實(shí)驗(yàn)室的主任,曾是戰(zhàn)斗機(jī)飛行員。她對于技術(shù)倫理的探討似乎并不是CIO們經(jīng)常聽到的話題,在本文里,她將以谷歌眼鏡所面臨的道德困境為例,討論技術(shù)對于社會(huì)、個(gè)人隱私帶來的深度影響,同時(shí)她還會(huì)解釋為什么技術(shù)的社交和道德影響應(yīng)該成為CIO工作事項(xiàng)的一部分,以及所謂價(jià)值敏感性設(shè)計(jì)的重要意義。
問:你的專業(yè)領(lǐng)域之一就是技術(shù)對于社交和道德的影響。CIO們是否需要意識(shí)到智能設(shè)備或人工智能對于業(yè)務(wù)的道德影響?
Cummings: 當(dāng)然。每個(gè)管理層,每個(gè)人至少都需要意識(shí)到他們正在使用的技術(shù)的社交和道德的影響。
現(xiàn)在就有一個(gè)很好的案例分析,就是谷歌眼鏡。谷歌眼鏡在我使用的范圍內(nèi),有著一些很強(qiáng)大的應(yīng)用,比如,飛機(jī)的維護(hù),汽車的維修,在你完成一項(xiàng)任務(wù)時(shí),在任何你需要的時(shí)候,可以在視野內(nèi)看到一組程序或其他需要的信息。 因此,谷歌使用這一技術(shù),并開始測試,認(rèn)為這會(huì)是一個(gè)非??岬脑O(shè)備,是人人都會(huì)喜愛的設(shè)備。
然而,我認(rèn)為谷歌是真的非常震驚,當(dāng)他們發(fā)現(xiàn)這項(xiàng)技術(shù)存在那么多問題。人們不只是拒絕使用這一設(shè)備,在我去過的很多地方,門上寫有標(biāo)識(shí),說明穿戴谷歌眼鏡的人不允許進(jìn)入,因?yàn)樗址噶巳藗兊碾[私。
這對于谷歌而言,有點(diǎn)莫名其妙。但是在產(chǎn)品設(shè)計(jì)領(lǐng)域一直有相關(guān)研究,比如,價(jià)值敏感性設(shè)計(jì),理論上,當(dāng)你有一個(gè)新的產(chǎn)品設(shè)計(jì)時(shí),你應(yīng)該坐下來,考慮各種附屬問題——你的技術(shù)可能涉及到的社會(huì)和道德問題——這樣你至少可以意識(shí)到這一點(diǎn)。 如果谷歌在早期意識(shí)到這一點(diǎn),他們就會(huì)處于更有利的位置。
問:我從來沒聽說過 “價(jià)值敏感性設(shè)計(jì)” 這個(gè)術(shù)語。這一流程應(yīng)該從何著手呢?
Cummings: 作為一名CIO,在設(shè)計(jì)產(chǎn)品的早期考慮這一因素是很重要的。即使你已經(jīng)有了一個(gè)設(shè)計(jì)完成的產(chǎn)品,你也要盡快開始這一流程。你最好在早期解決這些問題,而不是等到有訴訟或負(fù)面新聞發(fā)生。
問:你能將道德代碼編寫入系統(tǒng)嗎?這可能嗎?
Cummings:有一些研究人員相信你可以對電腦進(jìn)行編碼,使它比人類更有道德,人類依賴于情緒反應(yīng),甚至在壓力下,我們可能做出錯(cuò)誤的決定。但是也有人反駁,認(rèn)為人類的意義在于,基于人性做出決定,而不是冰冷的理性化。我的觀點(diǎn)介于這兩者之間,但是我更傾向于不編寫道德代碼,因?yàn)樵谖覀冞M(jìn)行編碼的時(shí)候,我們無法預(yù)測所有的外部情況。比如,對于一臺(tái)機(jī)器人殺手:我們不可能將它要面對的每一種情況,都編寫進(jìn)去。因此,除非你能保證結(jié)果的確定性,我不傾向于編寫道德判斷。
問:這是否意味著你永遠(yuǎn)不會(huì)把人類從決策系統(tǒng)中剔除?
Cummings: 這取決于決策系統(tǒng)本身。我認(rèn)為在軍事上是如此,因?yàn)檫@會(huì)涉及到生命損失,或者救治,這樣的決定中需要有人類。當(dāng)然,現(xiàn)在也有其他類型的決策——比如我的氣泵的常規(guī)決策,你就不需要人類的參與。但是當(dāng)我們討論的決策會(huì)影響到一個(gè)或更多的生命時(shí),或者,如果決策錯(cuò)誤的話,會(huì)導(dǎo)致非常災(zāi)難性的結(jié)果,這樣的情況就需要人類進(jìn)行負(fù)責(zé)。