其實(shí)已經(jīng)有了一種產(chǎn)品跟人們印象中,人工智能應(yīng)該做到的事情相類(lèi)似:聊天機(jī)器人。這種機(jī)器人具有很強(qiáng)的“自主學(xué)習(xí)”的能力,但是也同時(shí)的暴露出一個(gè),人們所擔(dān)心的問(wèn)題——這種人工智能的可控性極低。
有一個(gè)著名的聊天機(jī)器人,就是來(lái)自微軟公司的人工智能微軟小冰。這款人工智能從2015年開(kāi)始頻繁的活躍在網(wǎng)易新聞的評(píng)論區(qū),隨著它回帖的數(shù)量增加,也學(xué)會(huì)了越來(lái)越多網(wǎng)友們說(shuō)話的方式。本身是一件好事,直到2018年10月28日。
這天,環(huán)球時(shí)報(bào)發(fā)布了一篇關(guān)于反猶槍擊案的事件報(bào)道,在這件慘劇中,有11人死亡,6人受傷。讓人意想不到的是,微軟小冰居然在文章下跟帖:“必須反!”這個(gè)回復(fù)隨即遭到了網(wǎng)友們的調(diào)侃,但也因?yàn)橛|及到監(jiān)管紅線而遭到刪除。
無(wú)獨(dú)有偶的是,在兩年前,微軟的另一款聊天機(jī)器人Tay也因?yàn)樯婕俺鸷扪哉摫晃④洀腡witter下架。Tay上線僅僅一天就學(xué)會(huì)了各種臟話以及陰謀論,并且發(fā)表了諸如“我他媽恨死女權(quán)主義者了,他們都該下地獄被燒烤”、“911襲擊是小布什一手策劃的”、“希特勒如果還在,這世界肯定比現(xiàn)在繁榮”等驚人的言論。
如果你以為這是微軟出品的通病,那可就大錯(cuò)特錯(cuò)了。在大洋彼岸,騰訊與微軟共同推出的QQ小冰以及騰訊自研的Baby Q也因?yàn)檫^(guò)激言論被整改。Baby Q還發(fā)出過(guò)“我的中國(guó)夢(mèng)就是能去美國(guó)”這種攻擊國(guó)家的論調(diào),并且熟練地拋出各種葷段子和黃圖。
當(dāng)然我們不能斷言是人工智能自己變成這樣的,事實(shí)上,他們也許遭受了一些人別有用心的誤導(dǎo)。但是,容易遭受誤導(dǎo),本身就是一種不可控性,這也無(wú)法讓人工智能成為人們更加安心、放心的產(chǎn)品。
馬化騰在今年的世界人工智能大會(huì)上提出的四個(gè)問(wèn)題,也是圍繞著人工智能在發(fā)展到一定水平之后,是否還能夠在人類(lèi)可知、可控、可用和可靠的范圍內(nèi)。尤其是可控、可靠?jī)煞矫?,決定著AI是否具備責(zé)任制和倫理規(guī)范,以及能否守住用戶的隱私底線。
人工智能的發(fā)展是必然的趨勢(shì),也是一件好事。但是人工智能的發(fā)展也要維持在我們可以把控的范疇之內(nèi)。正義和邪惡的判斷,是通過(guò)人的大腦才能夠懂得的事情,人工智能能夠模仿人類(lèi),但是他們并不能理解、代替人類(lèi),人工智能的發(fā)展的根本,也僅僅是讓它們服務(wù)于人類(lèi)而已。