誰敢想象,有一天機器的智能會超過人類?——未來學(xué)家稱之為奇點。著名科學(xué)家——人工智能的先驅(qū)——艾倫·圖靈(Alan Turing)在1950年提出,機器可以像孩子那樣訓(xùn)練。
圖靈提出:“機器會思考嗎?”他在著名的論文《計算機器與智能》中探討了這個問題和相關(guān)問題的答案。
1955年,約翰·麥卡錫發(fā)明了一種叫做“人工智能”的編程語言LISP。幾年后,研究人員和科學(xué)家開始使用計算機編碼、識別圖像和翻譯語言等。早在1955年,人們就希望有一天能讓電腦說話和思考。
偉大的研究人員,如機器人學(xué)家漢斯·莫拉維克(Hans Moravec )、科幻作家弗諾·文奇(Vernor Vinge)和雷·庫茲韋爾(Ray Kurzweil),從更廣泛的意義上思考這個問題,機器什么時候能夠獨自設(shè)計實現(xiàn)目標(biāo)的方法。
曾經(jīng)像史蒂芬·霍金這樣的偉人警告過,當(dāng)人們無法與先進的人工智能競爭時,這可能意味著人類的終結(jié)。“我想說我們不應(yīng)該做的是,在不考慮潛在風(fēng)險的情況下,就全力建設(shè)超級智能。”加州大學(xué)伯克利分校(University of California, Berkeley)計算機科學(xué)教授斯圖爾特·拉塞爾(Stuart J. Russell)說。
以下是ML和AI的五個可能的危險以及解決辦法:
1. 機器學(xué)習(xí)(ML)模型可能是有偏見的——本質(zhì)上受人類的影響
盡管機器學(xué)習(xí)和人工智能很有前途,但它的模型也容易受到無意的偏見的影響。有些人認為ML模型在決策時是公正的,但他們卻忘記了,是人類在訓(xùn)練這些機器——從本質(zhì)上講——我們并不完美。
此外,在決策過程中,ML模型在處理數(shù)據(jù)時也可能存在偏差。你提供的本身不完整的數(shù)據(jù)(片面的數(shù)據(jù)),機器還會給出正確的結(jié)果嗎?
舉個例子,你經(jīng)營一家批發(fā)商店,想建立一個模型來了解顧客。所以你建立了一個模型,希望評估顧客對商品的購買力;您還希望在年底使用模型的結(jié)果來獎勵客戶。
所以,你收集客戶購買記錄——那些有著長期良好信用記錄的客戶。
如果你最信任的一群買家碰巧在銀行負債,卻無法及時站穩(wěn)腳跟,他們的購買力將大幅下降。但是,模型無法預(yù)測客戶的不可預(yù)見程度。從技術(shù)上講,如果您決定在年底輸出結(jié)果,那么得到的是有偏差的數(shù)據(jù)。
Note:當(dāng)涉及到機器學(xué)習(xí)時,數(shù)據(jù)是一個易受影響的因素,為了克服數(shù)據(jù)偏見,請雇傭?qū)<襾硖幚磉@些數(shù)據(jù)。
還請注意,除了您之外,沒有人記錄客戶的這些數(shù)據(jù)——可以說,您掌握著一定的話語權(quán)。
數(shù)據(jù)專家應(yīng)該質(zhì)疑數(shù)據(jù)積累過程中存在的任何問題;他們也應(yīng)該積極尋找這些偏見如何在數(shù)據(jù)中表現(xiàn)出來的方法。這與您創(chuàng)建了什么類型的數(shù)據(jù)和記錄也有關(guān)系。
2. 固定模式
在認知技術(shù)中,這是開發(fā)模型時不可忽視的風(fēng)險之一。不幸的是,大多數(shù)已開發(fā)的模型,特別是為投資策略設(shè)計的模型,都存在這種風(fēng)險。
想象一下,你花幾個月的時間為投資開發(fā)出一個模型。經(jīng)過多次試驗,仍然得到了一個“準確的輸出”。但用“真實世界的輸入”來嘗試該模型時,它可能給你一個毫無價值的結(jié)果。
為什么會這樣?這是因為模型缺乏可變性。這個模型是使用一組特定的數(shù)據(jù)構(gòu)建的。它只對設(shè)計時使用的數(shù)據(jù)有效。
因此,具有安全意識的AI和ML開發(fā)人員應(yīng)該在將來開發(fā)任何算法模型時學(xué)會管理這種風(fēng)險。通過輸入他們能找到的所有形式的數(shù)據(jù)可變性,例如,演示數(shù)據(jù)集(當(dāng)然這并不是所有的數(shù)據(jù))。
3.對輸出錯誤數(shù)據(jù)的解釋可能比較困難
對輸出錯誤數(shù)據(jù)的解釋是機器學(xué)習(xí)未來可能面臨的另一個風(fēng)險。想象一下,在如此努力地工作以獲得良好的數(shù)據(jù)之后,你決定和另一個人分享成果——也許是你的老板。
同樣的數(shù)據(jù)結(jié)果,你老板的解釋或許與你自己的觀點都不一致。畢竟他的思維過程與你不同,因此他的見解也與你不同。
這種情況經(jīng)常發(fā)生。這就是為什么數(shù)據(jù)科學(xué)家不僅應(yīng)該在構(gòu)建模型時注意,而且還應(yīng)該在理解和正確解釋來自任何設(shè)計模型的輸出結(jié)果的“每一點”時注意。
在機器學(xué)習(xí)中,沒有錯誤和假設(shè)的空間——它必須盡可能完美。如果我們不考慮每一個角度和可能性,就有可能讓這項技術(shù)危害人類。
Note:對機器發(fā)布的任何信息的誤讀都可能給公司帶來厄運。因此,數(shù)據(jù)科學(xué)家、研究人員以及任何相關(guān)人員都不應(yīng)該忽視這方面。他們開發(fā)機器學(xué)習(xí)模型的意圖應(yīng)該是積極的而不是相反。
4. AI和ML還沒有被科學(xué)的解釋
從真正意義上說,許多科學(xué)家仍在努力全面理解AI和ML到底是什么。盡管它們還沒在新興市場站穩(wěn)腳跟,但許多研究人員和數(shù)據(jù)科學(xué)家仍在努力了解更多信息。
許多人仍然感到害怕,因為他們相信仍然有一些未知的風(fēng)險尚待了解。
即使是像谷歌、微軟這樣的大型科技公司仍然不完美。
人工智能聊天機器人Tay Ai由微軟公司于2016年3月23日發(fā)布。它是通過twitter發(fā)布的,目的是與twitter用戶互動——但不幸的是,它被認為是種族主義者。它在24小時內(nèi)被關(guān)閉。
Facebook還發(fā)現(xiàn),他們的聊天機器人偏離了最初的腳本,開始用自己創(chuàng)造的一種新語言交流。有趣的是,人類無法理解這種新創(chuàng)造的語言。很奇怪,對吧?
Note:為了解決“存在的威脅”,科學(xué)家和研究人員需要了解什么是AI和ML。此外,在正式向公眾發(fā)布之前,他們還必須測試、測試、再測試機器運行模式的有效性。
5. 這就像一個控制欲極強的不朽獨裁者
機器永遠在運行——這是另一個不可忽視的潛在危險。AI和ML機器人不能像人類一樣死去,他們是不朽的。一旦他們被訓(xùn)練去做一些任務(wù),他們就會夜以繼日,而且常常沒有監(jiān)督。
如果人工智能和機器學(xué)習(xí)特性沒有得到充分的管理或監(jiān)控,它們可能會發(fā)展成為一個獨立的殺手機器。當(dāng)然,這項技術(shù)可能對軍方有利——但如果機器人不能區(qū)分敵人和無辜公民,無辜公民將會遭遇什么?
這種機器模型很容易操作。它們了解我們的恐懼、不喜歡和喜歡,并能利用這些數(shù)據(jù)來對付我們。注意:人工智能創(chuàng)造者必須準備好承擔(dān)全部責(zé)任,確保在設(shè)計任何算法模型時考慮到這一風(fēng)險。
結(jié)論
機器學(xué)習(xí)無疑是世界上最具技術(shù)價值的能力之一,具有現(xiàn)實世界的商業(yè)價值——尤其是與大數(shù)據(jù)技術(shù)合并時。
正因為如此,我們不應(yīng)該忽視這樣事實:它需要仔細的計劃來適當(dāng)?shù)乇苊馍鲜鰸撛诘耐{:數(shù)據(jù)偏差、固定的模型、錯誤輸出的解釋、不確定性和極強的控制欲。