人們對(duì)人工智能發(fā)展的焦慮如今非常明顯??茖W(xué)家斯蒂芬·霍金和特斯拉CEO伊隆·馬斯克對(duì)于人類能夠控制人工智能也表示懷疑。Facebook公司首席執(zhí)行官馬克•扎克伯格駁斥了這些可怕的問題,并稱他們的說法“不負(fù)責(zé)任”。 人形機(jī)器人(Al Sophia)在沙特阿拉伯獲得公民身份,這成為了媒體的頭條新聞,但也給人們帶來了一些疑慮。這個(gè)討論吸引了大量的公眾關(guān)注,并帶來了直接的和延遲的后果。
公眾輿論的影響可能會(huì)阻礙人工智能的采用。只要人們認(rèn)為這種技術(shù)是危險(xiǎn)的,不管事實(shí)與否,人工智能的發(fā)展都會(huì)受到阻礙。
然而,公眾情緒受大眾文化的影響多于對(duì)專家的影響。世界末日的荒涼情景對(duì)人們特別具有震撼力。伊隆·馬斯克(Elon Musk)將人工智能稱為是人類文明的基本存在風(fēng)險(xiǎn)時(shí),人們對(duì)這種恐懼和疑慮產(chǎn)生了共鳴。
那么人們究竟害怕什么?以下來了解一些最流行的說法。
1.不受控制的發(fā)展
人工智能不僅僅是人類的工具。如果其變得足夠強(qiáng)大,人工智能可以掌握自己的命運(yùn)。根據(jù)這個(gè)說法,當(dāng)人工智能進(jìn)化到能夠獨(dú)立思考時(shí),它會(huì)發(fā)現(xiàn)自己優(yōu)于人類。因此,人類必須制服或消滅人工智能。這是一個(gè)經(jīng)典的反烏托邦的故事。許多專家(包括伊隆·馬斯克、比爾·蓋茨、史蒂芬·霍金)都提出了對(duì)于這個(gè)問題的消極觀點(diǎn)。
毀滅創(chuàng)造者的創(chuàng)造物是一個(gè)古老的主題。它在西方文化中的第一個(gè)突出的例子是科幻小說中的《弗蘭肯斯坦》的怪物一樣可怕。而其后來者(電影中的HAL 9000、終結(jié)者和矩陣)仍保持這個(gè)傳統(tǒng)。不過,這個(gè)話題是非常具有爭(zhēng)議的。即使是那些對(duì)人工智能保持警惕線陣營(yíng)的人也認(rèn)為這樣的技術(shù)不會(huì)很快到來。
但是伊隆·馬斯克提出的一點(diǎn)是非常重要的,人類專家必須積極主動(dòng)應(yīng)對(duì),而在行業(yè)中保持領(lǐng)先是不夠的。人們必須向前看,人工智能究竟是否會(huì)構(gòu)成威脅,科學(xué)家必須想到所有可能的情景來安撫公眾的想法和感受。
在采取預(yù)防措施的同時(shí),要注意不要忽略人工智能實(shí)施的積極案例。而出現(xiàn)一次失誤或漏洞可能會(huì)導(dǎo)致對(duì)整個(gè)行業(yè)不利的立法出臺(tái),并導(dǎo)致未來幾年人工智能的發(fā)展停滯不前。
2.致命的錯(cuò)誤
另一個(gè)流行的情況表明,過分信任技術(shù)是危險(xiǎn)的。如果人工智能缺乏情感智能或數(shù)據(jù),可能會(huì)錯(cuò)誤地解讀人類的要求。另外,由于錯(cuò)誤或病毒的原因,人工智可能變得不穩(wěn)定并且可能是危險(xiǎn)的。正如O'Reilly Media公司創(chuàng)始人蒂姆?奧萊利(Tim O'Reilly)所說:“我們的算法系統(tǒng)有點(diǎn)像阿拉伯神話中的精靈。我們要求他們做某些事情,但如果我們沒有清楚表達(dá)意愿,他們會(huì)曲解命令,會(huì)給人們帶來意想不到的結(jié)果。”
人們還沒有準(zhǔn)備好處理不可預(yù)知的人工智能。百分百安全是消費(fèi)者讓虛擬助手和機(jī)器人進(jìn)入人們?nèi)粘I畹谋匾獥l件。例如,當(dāng)一輛自動(dòng)駕駛汽車發(fā)生一起交通事故時(shí),人工智能的安全性總是會(huì)受到嚴(yán)格的審查。
到目前為止,只有一例人工智能的錯(cuò)誤導(dǎo)致人員傷亡,但這足以引起人們的爭(zhēng)議。當(dāng)人工智能解決危險(xiǎn)情況時(shí),人們無法對(duì)這種單一的事件進(jìn)行權(quán)衡。而其實(shí)全球每年發(fā)生的4萬多起事故都是由于司機(jī)的大意疏忽或誤操作導(dǎo)致傷亡。這些事故中78%以上的司機(jī)在駕駛汽車時(shí)在發(fā)短信。這是人工智能永遠(yuǎn)不會(huì)做的事情。
而且,在特斯拉汽車自動(dòng)駕駛汽車發(fā)生的悲慘事故中,其自動(dòng)駕駛系統(tǒng)未能識(shí)別出明亮天空背景中迎面駛來的汽車的白邊,從而導(dǎo)致事故的發(fā)生,而車上的司機(jī)至少有7秒鐘可以踩剎車,顯然他沒有注意。司機(jī)認(rèn)為這輛車100%可以自動(dòng)駕駛。人為錯(cuò)誤(一廂情愿)導(dǎo)致了這一事故發(fā)生。
法院對(duì)這次特斯拉自動(dòng)駕駛汽車車禍的裁決處理對(duì)于該行業(yè)的未來發(fā)展是幸運(yùn)的,這是一個(gè)很好的結(jié)果。專家們必須以樂觀的想法來解決這個(gè)問題。如果人工智能的能力是有限的,那么它就不能被當(dāng)做“為人類駕駛汽車”或“理解人類的每一個(gè)愿望”的東西。如果產(chǎn)品的名稱或其特定功能意味著自主性(“人工智能”,“智能”,“自我”,“智能”),則必須對(duì)其功能提供指導(dǎo)說明。明確其用戶必須采取哪些措施。
恐怖谷
“恐怖谷”( Uncanny Valley)這一影片代表著人類對(duì)人工智能的形而上學(xué)和存在的恐懼。類人的人工智能會(huì)威脅到人類的獨(dú)特性和身份,將挑戰(zhàn)人類“特殊性”的觀念。人們擔(dān)心這些人工智能會(huì)取代人類的工作。而科幻作家在上世紀(jì)五六十年代就已經(jīng)積極探索這個(gè)概念。
由于當(dāng)今的大多數(shù)人工智能是虛擬助手和導(dǎo)航系統(tǒng)的組成部分,這種恐懼正在消失。但是,取代人力或減少可用職位數(shù)量的技術(shù)力量仍值得考慮。幾乎三分之一的人擔(dān)心人工智能會(huì)取代他們的工作崗位。
在“恐怖谷”背景下考慮的另一個(gè)非常重要的事情就是人工智能的情商。機(jī)器人如果有自己的夢(mèng)想,這可能是令人毛骨悚然的,因?yàn)樗鼈儫o能為力。他們確實(shí)感受到自己的情緒,但只是為了自我保護(hù)。他們不會(huì)尊重生物的痛苦,同情心對(duì)他們來說是陌生的事物。
許多專家認(rèn)為,如果人們想創(chuàng)造一個(gè)能夠真正提高生活質(zhì)量的人工智能,那么其情商就非常重要。人們很難預(yù)測(cè)未來,但具有一定情商的機(jī)器人肯定是朝著正確的方向邁出的一步。
3.制度化偏見
最近,人們開始擔(dān)心人工智能會(huì)使種族主義、性別歧視以及創(chuàng)作者的其他偏見變得形式化,并且重現(xiàn)。這是迄今為止最真實(shí)的恐懼。盡管機(jī)器的編程并沒有摻雜偏見,但它們可以向人們學(xué)習(xí),并采取相應(yīng)行動(dòng)。
微軟公司的聊天機(jī)器人Tai的命運(yùn)多舛的實(shí)驗(yàn)提供了一個(gè)機(jī)器學(xué)習(xí)機(jī)制可能會(huì)適得其反的例子。在搜索結(jié)果和面部識(shí)別問題上,有許多不太令人震驚的但卻令人不安的情況。 Google Photos在2015年錯(cuò)誤地將兩個(gè)非洲裔美國人標(biāo)記為大猩猩。2009年,惠普視頻跟蹤軟件沒有識(shí)別出膚色較暗的面孔。2015年,尼康相機(jī)軟件對(duì)于一名東亞人的面孔總是錯(cuò)誤地提示為“眨眼”。
HeyHuman公司總經(jīng)理Neil Davidson認(rèn)為,企業(yè)應(yīng)該成為時(shí)代的救世主,并且不能讓顧客失望。因此,企業(yè)必須盡一切力量創(chuàng)造一種無偏見和無害的人工智能。Davidson說:“隨著這一技術(shù)領(lǐng)域的發(fā)展,人們需要從以前的失敗教訓(xùn)中學(xué)習(xí),并確保機(jī)器的功能具有一定的意識(shí)和直覺。”
被人類濫用
最后,人們擔(dān)心其他人會(huì)用人工智能進(jìn)行欺騙,欺騙他人的信任和愛情等。即使是在人工智能的幫助下營(yíng)銷也被視為一種操縱行為。90%的美國人認(rèn)為,在市場(chǎng)營(yíng)銷中使用人工智能應(yīng)該通過具有法律約束力的行為規(guī)范進(jìn)行管理。四分之三的人認(rèn)為企業(yè)應(yīng)該在使用人工智能之前需要獲得明確的控制權(quán)。
人們對(duì)機(jī)器的焦慮轉(zhuǎn)移到人類自身,這絕對(duì)是朝著正確方向邁出的一步。這個(gè)世界觀大多代表東方的反烏托邦傳統(tǒng),這在日本流行文化中表現(xiàn)出來。 “攻殼機(jī)動(dòng)隊(duì)”(漫畫和電視連續(xù)劇)展示了未來世界,而犯罪仍然是由人類犯下的錯(cuò)誤,罪犯具有人類的動(dòng)機(jī)和動(dòng)力,而機(jī)器人只是一種工具,盡管其很復(fù)雜。
人們可能爭(zhēng)論這種清醒的態(tài)度和日本在機(jī)器人方面的成功是否是巧合。但有一點(diǎn)是肯定的——這種觀點(diǎn)在西方文化中也慢慢成為主流。人們不太關(guān)心人工智能,而更多關(guān)心的是人類創(chuàng)造者。
影片《機(jī)械姬》(Ex Machina)”和“神秘博士”(Oxygen)代表了流行文化的這種轉(zhuǎn)變。這二者都顯示人類的貪婪和自私可能比任何先進(jìn)的人工智能更具破壞性。
事實(shí)上,人們可能更信任人工智能。波士頓醫(yī)學(xué)中心的Michael Paasche-Orlow博士分享了他對(duì)于絕癥患者的觀察。據(jù)他介紹,這些患者接受了旨在引導(dǎo)他們生命終結(jié)的人工智能,有時(shí)更傾向于將其作為人類照顧者。他說:“事實(shí)證明,病人很高興能和電腦交談。”這些患者非常明確表示,“醫(yī)生從來沒有問過我這些事情。”
小貼士
•工程師有責(zé)任確保人工智能的設(shè)計(jì)不會(huì)反映人類最壞的一面。對(duì)于在線服務(wù),在邀請(qǐng)所有人加入之前,應(yīng)該經(jīng)常采取反濫用措施和過濾措施。另外,不能教授機(jī)器人知識(shí)的部分。
•訓(xùn)練人工智能,為其提供盡可能多樣化的數(shù)據(jù)。對(duì)于使用各種口音訓(xùn)練語音識(shí)別。而面部識(shí)別使用不同年齡和種族的人來進(jìn)行學(xué)習(xí)。在向公眾發(fā)布最終產(chǎn)品之前,在各種條件下測(cè)試所有功能。讓人工智能算法邊做邊學(xué)可能是代價(jià)高昂的錯(cuò)誤。
•過于樂觀的人工智能產(chǎn)品命名通常會(huì)引起誤解,并危害整個(gè)行業(yè)。企業(yè)要非常清楚人工智能能做什么,不能做什么。人工智能需要情商來獲得認(rèn)可。情商在人類和機(jī)器人工作場(chǎng)所都有很高的需求。
•為了確保公眾觀念的改變,人們必須積極實(shí)施人工智能實(shí)施的積極案例。幾十年來,人們習(xí)慣于不相信人工智能。這些根深蒂固的恐懼不會(huì)輕易消除。
版權(quán)聲明:本文為企業(yè)網(wǎng)D1Net編譯,轉(zhuǎn)載需注明出處為:企業(yè)網(wǎng)D1Net,如果不注明出處,企業(yè)網(wǎng)D1Net將保留追究其法律責(zé)任的權(quán)利。