如果你身在 20 世紀(jì) 80 年代、90 年代左右,你可能還記得已經(jīng)消失的“電腦恐懼癥”。
直到 21 世紀(jì)初,我還親身經(jīng)歷過隨著個人電腦在我們的生活、工作和家庭中出現(xiàn),很多人會焦慮、恐懼甚至出現(xiàn)攻擊行為。
雖然其中的一些人被電腦吸引,并且看到了電腦的潛力,但大多數(shù)人并不了解電腦。這些人對電腦感到陌生、費(fèi)解,并在許多方面存在著威脅。他們害怕被技術(shù)取代。
大多數(shù)人對技術(shù)的態(tài)度,最好的情況是反感,最壞的情況是恐慌——也許對任何變化,人們的反應(yīng)都是這樣的。
值得注意的是:我們所擔(dān)心的,大部分都是杞人憂天。
讓我們快進(jìn)一下:因電腦而擔(dān)憂的人已經(jīng)不能沒有電腦了,并且他們用電腦為自己謀利。計算機(jī)并沒有取代我們,也沒有引發(fā)大規(guī)模失業(yè)。反倒是現(xiàn)在,我們無法想象沒有筆記本電腦、平板電腦和智能手機(jī)的生活。昔日的杞人憂天卻朝著相反的方向發(fā)展,我們的擔(dān)憂未能實(shí)現(xiàn)。
但同時,在 20 世紀(jì) 80 年代和 90 年代,沒有人警告我們電腦和互聯(lián)網(wǎng)將會產(chǎn)生一定的威脅——無處不在的大規(guī)模監(jiān)控:黑客通過追蹤網(wǎng)絡(luò)設(shè)施或者個人數(shù)據(jù),人們通過社交網(wǎng)絡(luò)表現(xiàn)出心理異化,人們的耐心和注意力喪失,網(wǎng)上易受政治思想或宗教激進(jìn)化的影響,敵對的境外勢力劫持社交網(wǎng)絡(luò)以破壞國家主權(quán)。
如果大部分的恐懼變得非理性的話,相反地,人們才發(fā)現(xiàn)過去由于技術(shù)變化而產(chǎn)生的擔(dān)憂已成為現(xiàn)實(shí)。
一百年前,我們無法真正預(yù)測到,正在開發(fā)的運(yùn)輸和制造技術(shù)將導(dǎo)致新的工業(yè)戰(zhàn)爭,而這在兩次世界大戰(zhàn)中使數(shù)千萬人喪生。我們并沒有過早地意識到電臺的發(fā)明,會促成一種新的大眾傳播形式,這種形式有助于意大利和德國的法西斯主義興起。
20 世紀(jì) 20 年代和 30 年代理論物理學(xué)的發(fā)展的同時,并沒有相應(yīng)的帶有焦慮性的前瞻報道,即關(guān)于這些理論發(fā)展如何能夠很快落地并發(fā)展成核武器,使世界永遠(yuǎn)處于即將毀滅的恐慌之中。而當(dāng)今,即便是被關(guān)注十多年的氣候等嚴(yán)重問題,大部分美國人(44%)也仍然會選擇忽視。
作為一種文明,我們似乎很難正確辨別它們的未來是好是壞,正如我們因非理性的恐懼而出現(xiàn)恐慌一樣。
與過去一樣,當(dāng)前我們依然處在一場根本性變革的新浪潮當(dāng)中:認(rèn)知自動化,它可以概括為“人工智能(AI)”。與過去一樣,我們擔(dān)心這種新技術(shù)會傷害我們——人工智能會導(dǎo)致大規(guī)模失業(yè),或者人工智能會擁有自己的機(jī)構(gòu),變成超人,把我們摧毀。
但如果這些擔(dān)心是多余的,就像我們以前一樣?如果人工智能的真正危險與當(dāng)下令人驚慌的“超級智能”和“奇點(diǎn)”敘述大相徑庭呢?
在本文,我想和大家聊聊讓我對人工智能憂心忡忡的問題是:人工智能對人類行為具有高效、可擴(kuò)展性操作的能力,以及企業(yè)和政府對人工智能的濫用。
當(dāng)然,這不是唯一的有形風(fēng)險,還有很多,特別是與機(jī)器學(xué)習(xí)模型有害偏見相關(guān)的問題;就這個問題,其他人的見解比我更加出色。
本文選擇從大規(guī)模人口控制的角度進(jìn)行切入,是因?yàn)槲艺J(rèn)為這種風(fēng)險是迫切并且被嚴(yán)重低估的。
今天,這種風(fēng)險已經(jīng)變?yōu)楝F(xiàn)實(shí),在接下來的幾十年里,許多技術(shù)會有增強(qiáng)的趨勢。
我們的生活越來越數(shù)字化,社交媒體公司越來越了解我們的生活和想法。與此同時,他們越來越多地使用一些手段控制我們獲取信息,特別是通過算法手段。他們將人類行為視為一個可優(yōu)化的問題,一個人工智能問題:社交媒體公司調(diào)整算法變量實(shí)現(xiàn)某種特定行為,就像游戲人工智能會改進(jìn)游戲策略一樣。這個過程中唯一的瓶頸就是算法。這些事情都正在發(fā)生或即將到來,最大的社交網(wǎng)絡(luò)公司目前正在潛心研究人工智能技術(shù),并在相關(guān)項(xiàng)目上投資了數(shù)十億美元。
接下來的討論,我將分成以下幾部分,對上面的問題進(jìn)行拆解并詳細(xì)描述:
社交媒體是一種心理監(jiān)獄
內(nèi)容消費(fèi)是心理控制載體
用戶行為是待優(yōu)化的問題
當(dāng)前的情況
反面:人工智能能為我們做什么
反社交媒體的構(gòu)建
結(jié)論:在前進(jìn)的岔道口上
一、社交媒體是一種心理監(jiān)獄
在過去的 20 年中,我們的私人和公共生活已經(jīng)轉(zhuǎn)移到網(wǎng)絡(luò)上。我們每天用更多的時間盯著屏幕。我們的世界正在轉(zhuǎn)向某個狀態(tài),在這個狀態(tài)中我們所做的大部分事都由內(nèi)容消費(fèi)、修改或創(chuàng)造構(gòu)成的。
這種趨勢的反面是:企業(yè)和政府正在大量收集我們的數(shù)據(jù),特別是通過社交網(wǎng)絡(luò)了解我們與誰交流,我們說什么,我們在看什么內(nèi)容——圖片、電影、音樂以及新聞,我們在特定時間的心情,等等。最終,幾乎與我們相關(guān)的一切最終都會以數(shù)據(jù)的形式記錄在某個服務(wù)器上。
理論上,這些數(shù)據(jù)能夠讓收集的企業(yè)和政府為個人以及團(tuán)體建立非常準(zhǔn)確的心理畫像。你的觀點(diǎn)和行為可以與成千上萬的“同類”產(chǎn)生共鳴,讓你對所選的內(nèi)容有不可思議的理解——這可能比你單純通過自省的手段要好的多。
例如,通過 Facebook 的“喜歡”功能更好地評估朋友的個性。大量的數(shù)據(jù)讓下面這些成為可能:提前幾天預(yù)測用戶何時(與誰)建立關(guān)系,何時結(jié)束關(guān)系;誰有自殺傾向;在選舉中,用戶最終會票投給誰——即便是那時用戶仍猶豫不決。
這不僅僅能對個人進(jìn)行分析,對大型團(tuán)隊(duì)的預(yù)測能做得更好(擁有大量數(shù)據(jù)消除其中的隨機(jī)性以及異常值)。
二、內(nèi)容消費(fèi)是心理控制載體
被收集數(shù)據(jù)還只是個開始,社交網(wǎng)絡(luò)越來越多地控制著我們獲取的內(nèi)容。
目前,我們看到的內(nèi)容大多是算法在起作用。算法越來越多地影響并決定我們閱讀的政治文章、我們看到的電影預(yù)告片、與我們保持聯(lián)系的人,甚至是我們收到誰關(guān)于自己的反饋。
綜合多年的報道,算法對我們的生活有相當(dāng)大的影響——比如我們是誰、我們會成為誰。
如果 Facebook 能夠在較長時間內(nèi)能夠決定你將看到哪些新聞(或真或假),以及決定你的政治地位的變化,甚至?xí)Q定誰會看到有關(guān)你的新聞;那么,F(xiàn)acebook 就會實(shí)際控制你的世界觀以及政治信仰。
Facebook 的業(yè)務(wù)在于影響人們,從而向廣告主提供服務(wù)。
Facebook 建立了一個微調(diào)算法引擎,這個算法引擎不僅能夠影響你對品牌或購買智能音箱的看法。調(diào)整這個算法給你的內(nèi)容,能夠影響并控制你的情緒——這個算法甚至能夠改變選舉結(jié)果。
三、用戶行為是待優(yōu)化的問題
社交網(wǎng)絡(luò)能夠在衡量我們一切的同時,控制我們獲取的內(nèi)容——而這一切正在加速發(fā)展。
當(dāng)我們感知并行動時,就會考慮人工智能問題了。
你能夠建立一個行為的優(yōu)化循環(huán),在這個循環(huán)中,可以觀察目標(biāo)當(dāng)前狀態(tài)并不斷調(diào)整提供的信息,直到目標(biāo)。人工智能領(lǐng)域的一大子集——特別是“強(qiáng)化學(xué)習(xí)”——是關(guān)于開發(fā)算法來有效地解決待優(yōu)化的問題,從而關(guān)閉循環(huán)并完全控制目標(biāo)。在這種情況下,通過把我們的生活轉(zhuǎn)移到數(shù)字領(lǐng)域,我們會易受人工智能影響。
人類行強(qiáng)化學(xué)習(xí)循環(huán)
人類的思想很容易受簡單社交模式的影響,因此更容易受到攻擊和控制。比如以下角度:
身份強(qiáng)化:自從有廣告后一直被利用的技巧,現(xiàn)在任然奏效。它把特定的內(nèi)容和你的標(biāo)記聯(lián)系起來,進(jìn)而能把控內(nèi)容。在人工智能參與的社交媒體下,算法可以讓你你只看到自己希望看到的內(nèi)容(無論是新聞,還是來自朋友的博文);相反,算法也可以讓你遠(yuǎn)離你不想看到的內(nèi)容。
消極社交強(qiáng)化:如果你發(fā)表的文章表達(dá)了算法不希望你持有的觀點(diǎn),系統(tǒng)可以選擇僅向持有相反觀點(diǎn)的人推薦你的文章(可能是熟人、陌生人,甚至是機(jī)器人)。反復(fù)多次,這可能會讓你與初始觀點(diǎn)相去甚遠(yuǎn)。
積極社交強(qiáng)化:如果你發(fā)表文章表達(dá)的觀點(diǎn)是算法想要傳播的,算法會選擇將文章展示給“喜歡”它的人(甚至是機(jī)器人)——這會加強(qiáng)你的信念,讓你覺得自己是多數(shù)人當(dāng)中的一員。
樣本偏好:算法也能控制向你顯示來自你朋友(或廣大媒體)的支持你觀點(diǎn)博文。在這樣的信息泡沫中,你會覺得這些觀點(diǎn)會獲得比現(xiàn)實(shí)中更廣泛的支持。
參數(shù)個性化:算法也可能會觀察到和你的心理屬性相似的人——畢竟“人以群分”嘛。然后,算法為你提供內(nèi)容,這些內(nèi)容會對和你有類似觀點(diǎn)和生活經(jīng)驗(yàn)的人最有益。從長遠(yuǎn)來看,該算法甚至可以從頭開始生成特別適合你的、最高效的內(nèi)容。
從信息安全的角度來看,你會稱這些為漏洞——已知的可接管系統(tǒng)的漏洞。就人類思維而言,這些漏洞永遠(yuǎn)不會被修補(bǔ),它們只是我們的生活方式,存在于我們的 DNA 中。
人類思維是一個靜態(tài)的、易受攻擊的系統(tǒng),并將越來越受到人工智能算法的控制,這些算法在完全了解我們所做的和相信的事情的同時,開始完全控制我們獲取的內(nèi)容。
四、當(dāng)前的情況
值得注意的是,在獲取信息的過程中應(yīng)用人工智能算法,會引起大規(guī)模的人口控制——特別是政治控制——這個過程中使用的人工智能算法,不一定非常先進(jìn)。
你不需要自我意識,目前的技術(shù)可能就足夠了,人工智能是這樣可怕的存在——社交網(wǎng)絡(luò)公司在這方面已經(jīng)開展了較長時間的研究,并且取得了顯著的成果。
雖然可能只是試圖將“參與”效果最大化并影響你的購買決定,而不是操縱你對世界的看法,但他們開發(fā)的工具已被反對派在政治事件中使用。如 2016 年英國脫歐公投或 2016 年美國總統(tǒng)選舉——這是我們必須面對的現(xiàn)實(shí)。但是,如果今天大規(guī)模人口控制已經(jīng)成為可能,那理論上,為什么世界還沒有顛覆呢?
總之,我認(rèn)為這是因?yàn)槲覀儾⒉簧瞄L運(yùn)用人工智能;但這也意味著有很大的潛力,或許即將有所改變。
直到 2015 年,整個行業(yè)所有廣告相關(guān)的算法都只靠邏輯回歸運(yùn)行——事實(shí)上,就算是現(xiàn)在,很大程度上也是如此,畢竟只有行業(yè)大佬才會用更先進(jìn)的模式。
邏輯回歸是一種早于計算時代的算法,是個性化推薦的最基本的技術(shù)之一——這就是為什么在網(wǎng)上看到的這么多廣告,而這些廣告卻毫無關(guān)系的根源所在。同樣,反對派用來影響輿論的社交媒體機(jī)器人幾乎沒有人工智能,目前他們的做法都非常原始。
機(jī)器學(xué)習(xí)和人工智能近年來飛速發(fā)展,而且它們才開始在算法和社交媒體機(jī)器人上得到應(yīng)用;直到在 2016 年,深度學(xué)習(xí)才開始在新聞傳播和廣告網(wǎng)絡(luò)中得到應(yīng)用。
誰知道接下來會發(fā)生什么呢?
Facebook 在人工智能研究和開發(fā)方面投入了大量資金,并且勵志成為該領(lǐng)域的領(lǐng)導(dǎo)者,這令人為之興奮。當(dāng)你的產(chǎn)品是新聞源時,對你來說,自然語言處理和強(qiáng)化學(xué)習(xí)會有什么用武之地呢?
我們正在創(chuàng)建一家公司,該公司可為近 20 億人構(gòu)建細(xì)致入微的心理畫像,為許多人提供主要的新聞來源,它運(yùn)行大規(guī)模的行為操縱實(shí)驗(yàn),旨在開發(fā)當(dāng)今世界還沒有的、最先進(jìn)的人工智能技術(shù)——就我個人而言,它讓我感到害怕。
在我看來,F(xiàn)acebook 可能不是最令人擔(dān)憂的存在。許多人喜歡意淫某些大企業(yè)統(tǒng)治著世界,但這些企業(yè)的權(quán)力卻遠(yuǎn)遠(yuǎn)小于政府。如果對我們的思想通過算法進(jìn)行控制,那么政府很可能會變的很差,而不是企業(yè)。
現(xiàn)在,我們能做些什么呢?我們?nèi)绾伪Wo(hù)自己?作為技術(shù)人員,我們通過社交媒體做什么才能避免大規(guī)??刂?
五、反面:人工智能能為我們做什么
重要的是,這種威脅即便是存在,也不意味著所有的算法策略都是不好的,或者說所有的廣告都不好,它們都有一定的價值。
隨著互聯(lián)網(wǎng)和人工智能的興起,將算法應(yīng)用于獲取信息不僅是必然的趨勢,更是理想的趨勢。
隨著我們的生活越來越數(shù)字化、聯(lián)系越來越緊密,信息也變得越來越密集,人工智能變成我們與世界的橋梁。長遠(yuǎn)看,教育和自我提高將是人工智能最強(qiáng)的應(yīng)用場景——這種情況會在動態(tài)變化中實(shí)現(xiàn),這些變化幾乎完全反映了試圖控制你的惡意人工智能在內(nèi)容推送中的運(yùn)用。在幫助我們方面,算法存在巨大的潛力,能夠賦予個人更多能力,并幫助社會更好地自我管理。
問題不是人工智能,而是——控制。
我們不應(yīng)該讓內(nèi)容推送算法控制用戶并暗中實(shí)現(xiàn)隱藏的目標(biāo)——比如左右他們的政治觀點(diǎn),或者不斷地浪費(fèi)時間——而應(yīng)該讓用戶負(fù)責(zé)算法優(yōu)化。畢竟,我們正在談?wù)摰氖怯嘘P(guān)自己的內(nèi)容、自己的世界觀、自己的朋友、自己的生活;技術(shù)對你的影響應(yīng)該自然地受制于你自己。
算法不應(yīng)該成為一股神秘的力量,靠這個力量實(shí)現(xiàn)有損于自身利益目標(biāo);相反,他們應(yīng)該為我們所用,能夠?yàn)樽陨砝娣?wù)的工具。如教育、自我營銷,而不是為了娛樂。
我想,任何應(yīng)用算法的產(chǎn)品都應(yīng)該:
公開透明地告知算法目前優(yōu)化的目標(biāo),以及這些目標(biāo)如何影響用戶的信息獲取。
提供給用戶簡潔的功能設(shè)定他們的目標(biāo)。例如,用戶應(yīng)該能夠在特定的地方能夠自由控制,從而最大限度地保護(hù)自己,并未自己服務(wù)。
始終以可見的方式了解用戶在當(dāng)前產(chǎn)品上花費(fèi)的時間。
通過工具能夠控制用戶自己在當(dāng)前產(chǎn)品上花費(fèi)的時間。如設(shè)置每天的時間目標(biāo),算法通過該目標(biāo)讓你實(shí)現(xiàn)自我管理。
在避免被控制的同時用人工智能保護(hù)自己
我們應(yīng)該讓人工智能為人類服務(wù),而不應(yīng)該操縱用戶牟取利潤或者達(dá)到某種政治目的。
如果算法不像賭場運(yùn)營商或宣傳人員那樣運(yùn)作,該怎么辦?
相反,如果算法更像一位導(dǎo)師或一位優(yōu)秀的圖書管理員,對你以及數(shù)百萬人的心理洞若觀火——在此基礎(chǔ)上,算法向你推薦了一本書,這會與你的需求不謀而合,并且他們相伴而生。
這種人工智能是一種指導(dǎo)你生活的工具,它能夠幫你找到實(shí)現(xiàn)目的的最佳路徑。
如果算法已經(jīng)分析過數(shù)百萬人,你能想象通過算法了解的世界來看待自己的生活嗎?或者與一個百科全書式的系統(tǒng)合著一本書?又或者與一個了解當(dāng)前人類全部知識的系統(tǒng)合作進(jìn)行研究?
在一個完全受制于人工智能的產(chǎn)品中,更先進(jìn)的算法——而不是威脅,將會存在一些積極的方面,讓你更有效地實(shí)現(xiàn)自己的目標(biāo)。
六、反社交媒體的構(gòu)建
總而言之,未來人工智能將成為我們與世界的接口,這是一個由數(shù)字信息組成的世界——這同樣會讓個人有可能更好地管理自己的生活,當(dāng)然也有可能完全喪失這個權(quán)利。
不幸的是:社交媒體目前的發(fā)展有些南轅北轍。
不過,千萬不要覺得我們可以扭轉(zhuǎn)局面,這還為時尚早。
我們需要開發(fā)這個行業(yè)內(nèi)的產(chǎn)品類別和市場,其中的激勵措施與讓用戶負(fù)責(zé)影響他們的算法是一致的,而不是使用人工智能操縱用戶牟取利潤或者達(dá)到某種政治目的;我們需要努力做出反 Facebook 一類社交媒體的產(chǎn)品。
在遙遠(yuǎn)的未來,這些產(chǎn)品可能會以人工智能助手的形式出現(xiàn)。數(shù)字導(dǎo)師通過程序幫助你,你能夠通過他們控制自己在交往過程中所追求的目標(biāo)。
而在目前,搜索引擎可以被看作是一個人工智能驅(qū)動信息的出雛形,它為用戶服務(wù),而不是試圖控制用戶。
搜索引擎是一種有意控制而達(dá)到特定目的的工具,你告訴搜索引擎它應(yīng)該為你做什么,而不是被動的獲得內(nèi)容;搜索引擎會盡量減少從問題到答案,從問題到解決方案所需的時間,而不是在浪費(fèi)時間。
你可能會想:畢竟搜索引擎仍然是我們和信息之間的人工智能層,它做展示的結(jié)果,是否會有所偏好從而控制我們呢?
是的,每種信息管理算法都存在這種風(fēng)險。
但與社交網(wǎng)絡(luò)形成鮮明對比的是:在這種情況下,市場激勵實(shí)際上與用戶需求一致,推動搜索引擎盡可能做到相關(guān)和客觀。如果不能最大限度地發(fā)揮作用,那么用戶會毫不猶豫地轉(zhuǎn)向競品。重要的是:搜索引擎對用戶心理的攻擊,比社交內(nèi)容小得多。
本文所描述的產(chǎn)品中的威脅包含以下內(nèi)容:
感知和行動:產(chǎn)品不僅應(yīng)該控制向你展示的內(nèi)容(新聞和社交內(nèi)容),還應(yīng)該通過類似“喜歡”的功能、聊天信息和狀態(tài)更新來“感知”你當(dāng)前的心理狀態(tài)。沒有認(rèn)知和行動,就不能強(qiáng)化學(xué)習(xí)。正所謂“工欲善其事,必先利其器”。
生活的中心:產(chǎn)品應(yīng)該是一部分用戶的主要信息來源,典型用戶會每天花費(fèi)數(shù)小時在產(chǎn)品上。輔助性和專業(yè)化的產(chǎn)品或服務(wù)(如亞馬遜的物品推薦)將不會存在嚴(yán)重的威脅。
社會成分:激活更廣泛和更有效的心理控制因素(特別是社會強(qiáng)化)。沒有人情味的內(nèi)容只占我們思想的一小部分。
業(yè)務(wù)激勵:目的在于操縱用戶,并讓用戶在產(chǎn)品上停留更多時間。
而大多數(shù)人工智能驅(qū)動的產(chǎn)品,都不符合以上這些要求。
另一方面,社交網(wǎng)絡(luò)是風(fēng)險因素的組合,它擁有可怕的力量。
作為技術(shù)專家,我們應(yīng)該傾向于那些不具備這些功能的產(chǎn)品,拒絕那些將這些功能組合在一起的產(chǎn)品,它們因錯誤使用而具有潛在危險性。
建立搜索引擎和數(shù)字助理,而不是社會新聞,這將使推薦透明,并且富有可配置性和建設(shè)性,而不是蹩腳的機(jī)器,最大限度地提高“參與度”并浪費(fèi)你時間。
關(guān)注界面和交互,以及人工智能等相關(guān)的專業(yè)知識,為算法構(gòu)建出色的設(shè)置界面,讓用戶能夠按照自己的目標(biāo)使用產(chǎn)品。
重要的是:我們應(yīng)該將這些問題告知并教育用戶,以便他們能夠有足夠的信息,決定是否使用有一定可能性控制自己的產(chǎn)品——那樣就能夠產(chǎn)生足夠的市場壓力,從而引發(fā)技術(shù)變革。
七、結(jié)論:在前進(jìn)的岔道口上
社交媒體不僅足夠了解個人和組織建立的強(qiáng)大的心理模型,而且也越來越多地控制著我們的信息獲取。它可以通過一系列行之有效的心理攻擊,操縱我們相信的東西、我們的感受以及我們的所作所為。
一個足夠先進(jìn)的人工智能算法,可以通過對我們精神狀態(tài)的感知以及受精神狀態(tài)支配的行動的了解,能夠高效地控制我們的信念和行為。
使用人工智能作為信息接口本身并不是問題。這樣的人機(jī)交互界面,如果設(shè)計良好,有可能為我們所有人帶來巨大的益處和賦權(quán)。關(guān)鍵在于:用戶應(yīng)該完全控制算法,將其作為用于追求自己目標(biāo)的工具(與使用搜索引擎的方式相同)。
作為技術(shù)專家,我們有責(zé)任拒絕脫離控制的產(chǎn)品,并致力于構(gòu)建對用戶負(fù)責(zé)的信息界面。不要將 AI 當(dāng)作控制用戶的工具;而是讓你的用戶把 AI 當(dāng)成工具,為他們服務(wù)。
一條路讓我感到害怕,另一條路讓我充滿希望——還有足夠的時間讓我們做的更好。
如果你正在使用這些技術(shù),請牢記這一點(diǎn):
你可能沒有惡意,你可能毫不在乎;相比分享你的未來,你或許更容易評估受限制股票的發(fā)展。但是無論你是否在意,因?yàn)槟阏莆樟藬?shù)字世界的基礎(chǔ)設(shè)施,你的選擇會影響他人,而你最終也可能會為他們負(fù)責(zé)。