編者按:機器學習技術(shù)日益發(fā)達,芯片制造商也開始跟上人工智能的腳步競相開發(fā)新型芯片。本文選自《快公司》,作者 Steven Melendez 在文中講述了機器學習與人工智能會碰撞出怎樣的火花,芯片制造商又該如何應對。
近年來,隨著機器學習技術(shù)的提高,計算機已經(jīng)擁有了在圖像中識別物體、“聽”懂語音命令以及翻譯文字信息等功能。
然而,雖然Apple的Siri或Google翻譯能夠?qū)崟r執(zhí)行命令,實際上如果讓傳統(tǒng)計算機來完成這些工具所依賴的復雜的數(shù)學建模,不僅會耗費大量的時間與能源,也需要更好的處理能力。因此,像英特爾公司、“圖像動力廠” Nvidia 公司、移動計算首腦高通公司以及許多芯片制造類的創(chuàng)業(yè)公司都開始競相開發(fā)能夠讓現(xiàn)代深度學習技術(shù)成本更低、效率更高的專門化硬件。
圖:Nvidia 的特斯拉P100 GPU就是為高效能數(shù)據(jù)中心的應用和人工智能(AI)而開發(fā)的。
一些人工智能(AI)的研究者們說,人們可能不太理解這些專門為提高開發(fā)與撰寫新型AI算法速度而設計的芯片的重要性。Nvidia 的 CEO 黃仁勛在11月的一次財報電話會議中談及培訓計算機執(zhí)行一個新任務所需的時間時表示,“(需要的時間)肯定不是幾個月,可能也就是幾天的事,”他說,“本質(zhì)上其實就是擁有了一個時光機。”
雖然 Nvidia 的工作大致在開發(fā)幫助游戲玩家以盡可能高的分辨率玩最新的射擊游戲的顯卡,該公司同樣重視調(diào)整其圖像加工單元芯片或GPU以適應嚴肅的科學計算與數(shù)據(jù)中心的數(shù)字處理。
Nvidia 的加速計算業(yè)務部副總裁兼總經(jīng)理Ian Buck說,“在過去的10年間,我們已經(jīng)將此前只用于圖像中的GPU技術(shù)用到了更多更普遍的領(lǐng)域中。”
快速繪制視頻游戲的圖像與其它事實圖像都依賴于能夠執(zhí)行特定類型的數(shù)學計算(例如矩陣乘法)并且可以同時處理大量基本計算的GPU技術(shù)。研究人員發(fā)現(xiàn)這些相同的特征對于具有相似算法的其它應用同樣有用,包括氣候模擬的運行和復雜生物分子結(jié)構(gòu)的建模。
最近,GPU已經(jīng)證明了其擅長于訓練深層神經(jīng)網(wǎng)絡。該網(wǎng)絡像是松散地建立在人類大腦中的數(shù)學結(jié)構(gòu),是現(xiàn)代機器學習技術(shù)的主力。與此同時,GPU同樣嚴重依賴于重復的并行矩陣計算。
“深度學習技術(shù)就是因此而變得特別的:它需要大量密集型的矩陣乘法。”英特爾的人工智能解決方案副總裁兼總經(jīng)理Naveen Rao說。Rao同時也是一家機器學習初創(chuàng)企業(yè)Nervana Systems的創(chuàng)始人兼CEO,該公司于今年早些時候被英特爾公司收購。“這(深度學習技術(shù))就不同于只支持文字處理程序或電子表格的工作量。”
圖形處理與人工智能在數(shù)學操作之間的相似之處使得 Nvidia 在競爭者中處于領(lǐng)先的地位。該公司報告稱,截止10月31日的第三季度中,數(shù)據(jù)中心的收入同比增長了一倍以上,達到了2.4億美元,這批增長很大一部分是因為深度學習技術(shù)相關(guān)的需求的增加。其他GPU制造商也很可能對新出現(xiàn)的產(chǎn)品需求感到興奮。因為此前報道稱,在臺式電腦銷售下降的背景下,GPU的銷售量也出現(xiàn)了減少。如今,Nvidia 在GPU市場中占主導地位,擁有超過70%的市場份額。在過去一年中,隨著其芯片新應用的誕生,其股市價格幾乎翻了三倍。
顯卡助力 AI 走向成功
在2012年一年一度的ImageNet大規(guī)模視覺識別挑戰(zhàn)(一個著名的圖像分類競賽)中,一個參賽隊伍首次應用了GPU驅(qū)動的深度學習并贏得了比賽,其成果也顯然超越了前幾年的獲獎者。“他們所做的是將大約卡在70%精度范圍內(nèi)的東西提高到了85%的精度,”Buck說。
GPU系統(tǒng)儼然已經(jīng)成為了數(shù)據(jù)中心為機器學習領(lǐng)域的公司提供服務時的標配。Nvidia 表示,他們的GPU已經(jīng)被用于由亞馬遜和微軟公司所提供的機器學習云服務中。但 Nvidia 和其他公司也仍在研究下一代芯片,希望既能訓練深度學習體系并且可以使用它們以實現(xiàn)更有效的信息處理。
最后,Graphcore公司(設在英國布里斯托的機器學習硬件創(chuàng)業(yè)公司)的CEO Nigel Toon表示,現(xiàn)有GPU的底層設計適用于圖像處理而不是人工智能。他認為,GPU的局限性導致了程序員只能以特定的方式對數(shù)據(jù)進行組合,以最有效地利用芯片。但對于更復雜的數(shù)據(jù)來說,例如錄制的視頻或音頻,可能不太容易做到。Graphcore公司正在開發(fā)其稱作“智能處理單元”的芯片,Toon表示這是專門為深度學習而從頭設計的芯片。他說:“希望我們能夠做到摒除那些局限性。”
芯片制造商認為機器學習將受益于擁有并行荷載計算內(nèi)核間快速連接的專用處理器,實現(xiàn)快速訪問儲存著復雜的模型、數(shù)據(jù)以及速度超過精度的數(shù)學運算的大容量存儲器。Google在5月發(fā)布的在今年早些時候擊敗了圍棋世界冠軍李世石的 AlphaGo 就是由他們所稱的“張量處理單元”的定制芯片所驅(qū)動的。英特爾在11月宣布,希望在未來三年內(nèi)運用部分基于從Nervana收購的技術(shù),推出非GPU芯片,以實現(xiàn)訓練機器學習模型的速度比現(xiàn)今GPU芯片速度快100倍,并能夠啟用新型更復雜的算法。
Rao表示,“許多我們當前所看到的神經(jīng)網(wǎng)絡的解決方案在其硬件設計之中都有人工的成分。”由于儲存器容量與處理速度的限制,這些人工部件可能會存在對復雜性的限制。
英特爾公司和它的許多競爭對手都正在為一個為便捷式硬件而不是數(shù)據(jù)中心訓練與開發(fā)機器學習模型的未來做準備。市場情報公司Tractica的研究主管Aditya Kaul表示,這對于自動駕駛汽車這樣的設備來說至關(guān)重要,這些設備需要對周圍發(fā)生的事情做出快速反應,并且能夠比將新輸入的數(shù)據(jù)傳到云端更快地從這些數(shù)據(jù)中學習。
“隨著時間的推移,你將看到從云端到終端的轉(zhuǎn)變,”他說。這就意味著小型、能源高效型的計算端需要優(yōu)化機器學習,尤其是那些便攜式設備。
“當你戴著耳機的時候,你肯定不希望在你的頭上或者腰帶上綁一塊像磚一樣大的電池。”加州圣馬特奧市的機器學習創(chuàng)業(yè)公司Movidius的營銷總監(jiān) Jack Dashwood 說。這家于9月被英特爾收購的公司為包括大疆無人機在內(nèi)的多種設備提供計算機視覺中心處理器。
Nvidia 也打算繼續(xù)發(fā)布GPU,以提高一些機器學習友好型功能的水平,例如快而低精度的算法,并增加對如自動駕駛汽車的下一代應用的AI平臺的支持。電動汽車制造商特斯拉在10月宣布,其生產(chǎn)的所有汽車的自動駕駛計算系統(tǒng)中將會配備Nvidia的硬件,以支持其神經(jīng)網(wǎng)絡高效處理攝像頭與雷達的數(shù)據(jù)。Nvidia 最近還宣布了向國家癌癥研究所和能源部的合作行動提供硬件的計劃,該行動是在聯(lián)邦癌癥Moonshot項目之下的對癌癥及其潛在療法的研究。
Kaul表示:“Nvidia 很早就發(fā)現(xiàn)了機器學習的這種趨勢,這使得他們在之后的創(chuàng)新之中都將處于非常有利的地位。”
翻譯來自:蟲洞翻翻 譯者ID:Suzie蘇西