哲學可以為人工智能做什么

責任編輯:zsheng

2019-01-07 11:54:25

摘自:上觀新聞

“我從事人工智能哲學的研究,主要關心的話題是人工智能當中牽涉認知科學的基礎問題和所帶來的哲學問題,基本是文理跨學科的問題?!边@是復旦大學哲學學院徐英瑾教授的慣用開場白??勺詭落J科技的光環(huán)又被炒得火熱的“人工智能”,跟高度抽象化的古老“哲學”,會有哪門子關系?

“我從事人工智能哲學的研究,主要關心的話題是人工智能當中牽涉認知科學的基礎問題和所帶來的哲學問題,基本是文理跨學科的問題。”這是復旦大學哲學學院徐英瑾教授的慣用開場白。可自帶新銳科技的光環(huán)又被炒得火熱的“人工智能”,跟高度抽象化的古老“哲學”,會有哪門子關系?

徐英瑾向解放日報·上觀新聞記者解釋,人工智能和哲學看似風馬牛不相及,其實關系密切、互動頻繁。在這兩者之間架起一座互通的“橋”,緩和學術界趨于緊張的“科學”和“人文”關系,是他近年來一直在做的事情。

近來,除了在校園里授課,這位教育部長江青年學者還在網(wǎng)易公開課上開設了一門“人工智能哲學”。課程總共7集,其中第一集播放量已達89萬次,這讓他有些意外。畢竟在他眼中,“人工智能哲學作為一個行當,在國內(nèi)基本上還沒有被確立起來”。

人工智能和哲學實際上“非常像”

在徐英瑾眼里,這兩個領域實際上非常像:“和哲學一樣,人工智能有很強的開放性。”

在科學界內(nèi)部,AI科學算是個“異數(shù)”。從某種意義上說,這門學科的誕生,本身就是“頭腦風暴”般哲學思辨的產(chǎn)物,它流派繁多,對“異數(shù)”的寬容度相當高。這一點和哲學極其相似:“大家都知道,各種流派的哲學家簡直不像在一個體系里的,連話語范式都完全不一樣。”

如果從西方哲學史的角度來看,有關AI的設想更是早早露出了苗頭。徐英瑾介紹,僅以十七、十八世紀歐洲哲學為參考系,就至少有笛卡爾、萊布尼茨、霍布斯、休謨和康德等哲學家,對人工智能的相關問題有所涉及,這些想法甚至超越了他們所處時代科學發(fā)展的限制。

人工智能跟東方哲學也有關聯(lián)。徐英瑾提出了一個有趣的類比——儒家的本行,其實就是數(shù)據(jù)分析??鬃泳幵娊?jīng),就是搞數(shù)據(jù)搜集,“風”、“雅”、“頌”就是把周代各個小國以及社會生活方方面面積累的數(shù)據(jù),做了一個典型性處理。

此外,儒家認為道德的養(yǎng)成不靠說教,而是以具體的做法陶冶情操、去除浮躁。“這很像神經(jīng)元網(wǎng)絡的訓練模型。網(wǎng)絡本身的習性需要通過投喂大量數(shù)據(jù),然后調(diào)整網(wǎng)絡內(nèi)部計算單元之間的權重,使網(wǎng)絡得以被‘養(yǎng)成’。”在徐英瑾看來,在這方面,孔子思想與基于人工神經(jīng)元網(wǎng)絡的認知哲學的路線,也是“很像”的。

人工智能需要思想地圖指引方向

那么,哲學在人工智能面前,究竟可以扮演什么角色呢?

徐英瑾提出,哲學的頭等大事是厘清基本概念。很多自然科學家往往在自己的研究中預設了相關問題的答案,卻很少回頭反思這些答案的合理性。“如果你能回到哲學史的角度,把不同流派之間的斗爭歷史都看明白了,就能把不同技術流派背后的門道弄清楚。否則,即使是專門從事人工智能研究的人,也容易被一大堆技術名詞弄暈。一旦弄暈以后,他們就搞不清楚具體的技術方向在巨大的思想地圖中處于怎樣一個方位。”他說。

其次,哲學能讓人們明白,人工智能這件事真的很復雜、很艱難。比如,關于“人性”是什么,經(jīng)驗主義和理性派的觀點幾乎是相反的。這兩種觀點針尖對麥芒,吵了好幾百年。在這個過程中,兩種觀點之間出現(xiàn)了混合。徐英瑾認為,“如果大家能意識到技術背景里有哲學爭論,就會明白——你所掌握的技術路徑并不唯一。而如果僅僅站在具體學科分類的內(nèi)部來看學科,就不容易受到其他學科思維方式的滋養(yǎng)。”

深度學習很可能破壞“文化生態(tài)”

徐英瑾承認,人工智能在帶來便利的同時,也帶來了一些麻煩。其中,最大的一個麻煩恐怕是,現(xiàn)在公眾所理解的人工智能基本上跟大數(shù)據(jù)、深度學習畫上了等號。特別是當Alpha Go在圍棋界所向披靡后,深度學習和神經(jīng)網(wǎng)絡一下子占據(jù)了公眾視野,幾乎成了人工智能的代名詞。

但“從學術上講,這是有問題的。”徐英瑾補充說,實際上,人工智能所包含的流派龐雜,并不能完全被今天的深度學習所概括,但如今,話語權被一些技術寡頭壟斷,公眾認知缺少了學術考證這重要的一環(huán)。

按照他的類比,如今炙手可熱的深度學習,前身是神經(jīng)元網(wǎng)絡,它最大的“敵人”叫符號人工智能,曾長期在人工智能研究中處于主導地位。而符號人工智能和神經(jīng)元網(wǎng)絡之間的關系,就好像曹操和劉備,雙方在人脈、資金、學術觀點等眾多維度,展開了比《甄嬛傳》還要激烈的斗爭。

徐英瑾擔心的是,在Alpha Go出現(xiàn)后,深度學習、神經(jīng)元網(wǎng)絡變成了一個贏家通吃的東西。比如,深度學習在很大程度上需要依賴大數(shù)據(jù),而這需要個體把信息全部上交。在徐英瑾看來,如果這樣一種人工智能沒有一個類似于“上帝之眼”的東西對大家進行監(jiān)控,就會出現(xiàn)歷史上從未有過的全局式情報搜集。人類社會得以運作的基本前提,是在隱私和公共之間尋找微妙的平衡點。可現(xiàn)有的大數(shù)據(jù)技術在實現(xiàn)通用人工智能所要求的靈活性之前,很可能已經(jīng)大量吸取了人類社會各種情報,“這會破壞人類的社會結構,破壞了我們的‘文化生態(tài)’”。

徐英瑾認為,隱私的恰當保護在一定程度上就像水土的保護一樣,構成一種軟生態(tài)。如果一切變得過于透明,會導致類似水土流失的后果。在徐英瑾看來,包括大數(shù)據(jù)運用在內(nèi)的深度學習對數(shù)據(jù)量的要求必須適度;一旦數(shù)據(jù)需求遠遠超過了社會供給,這種做法本身會面臨倫理上的危機。

鏈接已復制,快去分享吧

企業(yè)網(wǎng)版權所有?2010-2024 京ICP備09108050號-6京公網(wǎng)安備 11010502049343號