聊天機(jī)器人需有獨(dú)立三觀 而不僅僅只是預(yù)設(shè)

責(zé)任編輯:jackye

作者:止水

2016-10-10 08:55:14

摘自:網(wǎng)易科技報(bào)道

10月10日消息,據(jù)國外科技媒體VentureBeat報(bào)道,聊天機(jī)器人其實(shí)只是在數(shù)月之前才剛剛進(jìn)入公眾的視線,但它們?nèi)缃褚呀?jīng)變得無處不在了。

undefined

10月10日消息,據(jù)國外科技媒體VentureBeat報(bào)道,聊天機(jī)器人其實(shí)只是在數(shù)月之前才剛剛進(jìn)入公眾的視線,但它們?nèi)缃褚呀?jīng)變得無處不在了。據(jù)悉,目前已有超過18000個(gè)聊天機(jī)器人被部署在了Facebook的Messenger平臺上,而它們中的大多數(shù),都像它們在被設(shè)計(jì)時(shí)所預(yù)想的那樣,正兢兢業(yè)業(yè)地處于努力工作的狀態(tài)。

就目前來說,當(dāng)我們在談?wù)摿奶鞕C(jī)器人時(shí),我們所談?wù)摰脑掝}往往是它能做些什么?有些聊天機(jī)器人能幫你在網(wǎng)上訂一份披薩,有些聊天機(jī)器人可以很輕松地幫你設(shè)置一連串的提醒,還有一些聊天機(jī)器人會幫你規(guī)劃會議行程,并在你每個(gè)醒來的早晨,告訴你當(dāng)天的天氣。

無論你的聊天機(jī)器人能幫你做什么,只要它能幫你自動打理你私人生活和工作的細(xì)枝末節(jié),它就足以讓你興奮難以了。然而就多數(shù)情況來說,我們的私人聊天機(jī)器人其實(shí)還需要我們留一個(gè)心眼,去看守著它,但這對你來說真得就已經(jīng)足夠了?我們是否可以將更多更重要、更敏感的任務(wù),完全交托給我們的聊天機(jī)器人呢?

如果我們需要聊天機(jī)器人來處理更多的工作的話,我們就需要它們不僅僅只是能忠誠地完成一些簡單的任務(wù)。但如果只是簡簡單單地教授一個(gè)聊天機(jī)器人來完成一些復(fù)雜任務(wù)的話,這點(diǎn)其實(shí)還不足以贏得用戶們的信任。

而這一難題也自然而然地衍生出了聊天機(jī)器人的下一個(gè)發(fā)展方向,那就是專注于研究如何建立起聊天機(jī)器人同人類用戶之間的關(guān)系。

如何進(jìn)一步優(yōu)化聊天機(jī)器人?

聊天機(jī)器人公司Next IT創(chuàng)始人弗雷德·布朗(Fred Brown)的女兒有一次問了她爸爸一個(gè)問題:“SGT STAR(美國陸軍的虛擬助手)是否有自己最喜歡的顏色?”

這個(gè)問題讓身為人工智能專家的布朗一下子陷入到了沉思。為什么一個(gè)聊天機(jī)器人需要有一個(gè)自己最喜歡的顏色?我們不需要讓它幫我們挑選出合適的窗簾,或是找條合身的褲子,而只是簡簡單單地問它有沒有最喜歡的顏色?

布朗于是意識到了,他女兒所提出的這個(gè)問題的背后其實(shí)暗藏著她強(qiáng)烈的好奇心,這已經(jīng)超越了單純地詢問“它最喜歡的顏色”的這一問題的本身。

問題的重點(diǎn)是SGT STAR沒有一個(gè)最喜歡的顏色的這點(diǎn),暴露出它無法展示出像誠實(shí)和值得信任這樣的,人類才有的品質(zhì)。

SGT STAR非常擅長于回答美國陸軍部隊(duì)里的生活問題,但對那些想要聽到能讓他們產(chǎn)生“它值得相信”這一想法的答案的用戶來說,即便SGT STAR給出了它最佳的回答,都不足以讓他們滿意。

如果今天,你再去問SGT STAR它最喜歡的顏色是什么的話,它會說:“我偏愛紅色、白色、藍(lán)色,當(dāng)然,也很喜歡軍綠色!”雖然,這只是一個(gè)很小的細(xì)節(jié),但它其實(shí)是至關(guān)重要的。

在這個(gè)我們所引述的故事里,SGT STAR向我們展示出了諸如喜歡、不喜歡、和偏好這樣的人類性格,而這反過來也會讓它變得更為率真、更人性化、更值得別人取信任它。設(shè)想一下,如果和你對話的人,連一點(diǎn)自己的主見都沒有的話,他會讓你產(chǎn)生信任感嗎?

讓你的聊天機(jī)器人在交流過程中,能展示出像誠實(shí)和值得信任這樣可貴品質(zhì)的能力,就是我們在改變這個(gè)聊天機(jī)器人市場過程中,所需要努力的方向。

三觀的建立將成為重中之重

就像我們已經(jīng)將聊天機(jī)器人引入到我們每天的日常生活那樣,我們還能訓(xùn)練它們?nèi)プR別我們所說的語言,去發(fā)掘出我們的喜好,甚至還能讓它分析出我們的口音,推測出我們的情緒狀態(tài)。

讓我們再來回想一下那臺在2000年首次亮相的第一款聊天機(jī)器人和研發(fā)出它的那家公司。“Verbot計(jì)劃”脫胎于邁克爾·墨登博士(Dr. Michael Mauldin)對自然語言處理與聊天機(jī)器人的早期研究,而虛擬性格有限公司(Virtual Personalities, Inc.)這家成功研發(fā)出Verbot的公司,則仔細(xì)回溯了邁克爾·墨登博士在卡內(nèi)基梅隆大學(xué)的相關(guān)研究,并參考了彼得·普蘭特(Peter Plantec)在個(gè)性心理和藝術(shù)方面的研究成果,才最終有了Verbot的誕生。

個(gè)性心理研究對于像內(nèi)置于Facebook Messenger中的那類聊天機(jī)器人,或許沒什么用處,但如果問題涉及到了聊天機(jī)器人與人類交流的真誠性的話,那么對個(gè)性心理的研究將變得至關(guān)重要。

現(xiàn)如今,我們的科技正在經(jīng)歷指數(shù)級別的爆發(fā)式增長,我們的科研人員已經(jīng)開發(fā)出了許許多多的工具,它們能幫助我們的計(jì)算機(jī)在這個(gè)被人類所主宰的世界中,去更好地同人類進(jìn)行交流。

自然語言處理和情感分析就是這樣一個(gè)好例子。當(dāng)人工智能軟件尤金·古斯特曼(Eugene Goostman)在2014年通過了圖靈測試的時(shí)候,它也標(biāo)志著人機(jī)交流的時(shí)代進(jìn)入了新的發(fā)展拐點(diǎn)。

而現(xiàn)在的那些科技公司正將AI機(jī)器人的邊界拓展到更遠(yuǎn)的位置。我們可以參照一下IBM所研發(fā)出的人工智能“沃森”,它的口音識別工具可以在語言分析技術(shù)的幫助下,理解到人在表達(dá)時(shí)所傳遞出的情感、說話習(xí)慣和他的社交愛好。

之所以要研發(fā)這些工具的原因是,它們能幫助我們將聊天機(jī)器人改造成為一個(gè)可對話的對象。在這些工具的幫助下,你可以教一個(gè)聊天機(jī)器人如何去理解它的主人,相比擁有一個(gè)機(jī)器人最喜歡的顏色,這點(diǎn)對于它價(jià)值觀是更為直接的表述。

聊天機(jī)器人開發(fā)者須謹(jǐn)慎

無論是對聊天機(jī)器人的開發(fā)者還是它的使用者來說,都應(yīng)該警覺到這一點(diǎn):我們的三觀正在加速轉(zhuǎn)移至聊天機(jī)器人。雖然我們不清楚聊天機(jī)器人能學(xué)習(xí)到人類三觀的極限在哪兒,但我們已經(jīng)取得了巨大的進(jìn)步。

教會我們的聊天機(jī)器人去展示它的三觀,將極大地拓展它應(yīng)用到我們生活當(dāng)中的可能,但這點(diǎn)同時(shí)也將把聊天機(jī)器人和它的開發(fā)者隔離開來。

當(dāng)我們的聊天機(jī)器人只能展示出它的開發(fā)者們所傳授給它們的三觀的時(shí)候,它的開發(fā)者們就會成為被輿論討論的中心。在這種情況下,壞演員是很容易露餡的,這樣的話,守護(hù)好自己公司的招牌,就會顯得比以往更為重要。

讓我們設(shè)想一下這樣的場景,如果有兩個(gè)功能差不多的聊天機(jī)器人都幫你訂了旅行的機(jī)票。但如果你的這個(gè)航班被意外地取消了,一個(gè)能同情到你的感受,并幫助你重新訂一張新機(jī)票的聊天機(jī)器人,就會比那個(gè)完全不理會你的感受,而僅僅只是簡單粗暴地幫你直接訂下新機(jī)票的聊天機(jī)器人,好過一些。

在聽完這段假象描述后,我們的讀者應(yīng)該很快就很明白到它們之間的細(xì)微區(qū)別,并能做出更合適自己的選擇。

鏈接已復(fù)制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號-6京公網(wǎng)安備 11010502049343號