展望2018 AI芯片領(lǐng)域:眾多廠商追隨深度學(xué)習(xí)

責(zé)任編輯:editor007

作者:EE Times

2018-01-25 19:42:52

摘自:至頂網(wǎng)

深度神經(jīng)網(wǎng)絡(luò)就像遠(yuǎn)方地平線上的海嘯

深度神經(jīng)網(wǎng)絡(luò)就像遠(yuǎn)方地平線上的海嘯

鑒于深度神經(jīng)網(wǎng)絡(luò)(DNN)的算法和應(yīng)用還在不斷演變之中,所以目前我們還不清楚深度神經(jīng)網(wǎng)絡(luò)最終會帶來怎樣的變化。但是迄今為止,深度神經(jīng)網(wǎng)絡(luò)在翻譯文本、識別圖像和語言方面取得的成功,讓人們清楚地意識到,深度神經(jīng)網(wǎng)絡(luò)將重塑計算機(jī)設(shè)計,當(dāng)半導(dǎo)體設(shè)計和制造方面發(fā)生著同樣深刻顛覆的同時,這些變化逐漸開始帶來影響。

為訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)量身定制的第一批商用芯片將于今年上市。由于訓(xùn)練新的神經(jīng)網(wǎng)絡(luò)模型可能需要幾周或幾個月的時間,因此這些芯片可能是迄今為止制造出的最大、也是最昂貴的商用芯片。

今年,該行業(yè)可能會看到來自初創(chuàng)公司Graphcore的一款微處理器芯片,沒有采用DRAM,而是來自競爭對手Cerebras Systems的晶圓級集成。英特爾收購的2.5-D Nervana芯片已經(jīng)在制作樣品,其他十幾款處理器也正在開發(fā)中。同時,ARM和西部數(shù)據(jù)等芯片公司也正在研究芯片核心,以加速深度神經(jīng)網(wǎng)絡(luò)的推理部分。

加州大學(xué)伯克利分校名譽(yù)教授David Patterson表示:“我認(rèn)為(2018年)將有一場即將上演的派對。我們會看到許多公司正在評估的一些想法。”

這個趨勢非常重要,Patterson和聯(lián)合作者John Hennessey在關(guān)于計算機(jī)開創(chuàng)性文本的最新版本中撰寫了一個新的篇章,于上個月發(fā)表。作者對內(nèi)部設(shè)計提供了深入的見解,例如Patterson撰寫的關(guān)于Google TensorFlow Processor(TPU)部分,以及最新Apple和Google智能手機(jī)芯片中的Microsoft Catapult FPGA和推理塊。

“這是計算機(jī)架構(gòu)和封裝的復(fù)興。明年我們會看到比過去十年更有趣的計算機(jī),” Patterson說。

深度神經(jīng)網(wǎng)絡(luò)的興起,在過去幾年里把風(fēng)投的資金帶回到了半導(dǎo)體領(lǐng)域。 EE Times最近公布的Silicon 60本榜單中,有7家致力于某種形式的神經(jīng)網(wǎng)絡(luò)芯片,其中2家公司鮮為人知:Cambricon Technologies(中國北京)和Mythic Inc.(美國德克薩斯州奧斯汀)。

“我們看到擁有新架構(gòu)的初創(chuàng)公司正在激增。我自己也在關(guān)注著15-20家公司......過去10到15年,我們還沒有看到哪一個細(xì)分領(lǐng)域有15家這么多的芯片公司出現(xiàn)。”企業(yè)家Chris Rowen這樣表示,他離開了Cadence Design Systems,成立了一家名為Cognite Ventures的公司,專注于神經(jīng)網(wǎng)絡(luò)軟件。

“在高端服務(wù)器訓(xùn)練方面,Nvidia是一個很難對付的競爭對手,因?yàn)樗泻茈y撼動的軟件地位,而且涉足智能手機(jī)市場那你肯定是瘋了,因?yàn)槟惚仨氁瞄L很多方面,但是在高端和低端智能手機(jī)市場你可能還有一些機(jī)會。”Rowen表示。

市場分析公司The Linley Group負(fù)責(zé)人Linley Gwennap表示,Nvidia最新的GPU(Volta)做得非常出色,Nvidia對其進(jìn)行了調(diào)整,可對深度神經(jīng)網(wǎng)絡(luò)做速度訓(xùn)練。“但我當(dāng)然不認(rèn)為這是最好的設(shè)計,”Gwennap說。

Gwennap表示,Graphcore(英國布里斯托爾)和Cerebras(美國加州洛斯阿爾托)是訓(xùn)練芯片領(lǐng)域值得關(guān)注的兩家初創(chuàng)公司,因?yàn)檫@兩家公司籌集的資金最多,而且似乎擁有最好的團(tuán)隊(duì)。由Google前芯片設(shè)計師創(chuàng)立的初創(chuàng)公司Groq聲稱,它將在2018年推出一款推理芯片,在總體操作和每秒推論方面都會以4倍的優(yōu)勢擊敗競爭對手。

 

展望2018 AI芯片領(lǐng)域:眾多廠商追隨深度學(xué)習(xí)

 

英特爾的Nervana是一個大型的線性代數(shù)加速器,位于4個8-Gb HBM2內(nèi)存堆棧旁的硅中介層上。來源:Hennessy和Patterson,“計算機(jī)體系結(jié)構(gòu):一種定量方法”

英特爾代號為“Lake Crest”的Nervana(上圖)是最受關(guān)注的定制設(shè)計之一。它執(zhí)行16位矩陣操作,數(shù)據(jù)共享指令集中提供的單個5位指數(shù)。

與Nvidia Volta一樣,Lake Crest邏輯器件位于4個HBM2高帶寬內(nèi)存堆棧旁邊的TSMC CoWoS(襯底上芯片上芯片)中介層上。這些芯片被設(shè)計成網(wǎng)狀,提供5到10倍于Volta的性能。

雖然去年微軟在深度神經(jīng)網(wǎng)絡(luò)上使用了FPGA,但Patterson仍然對這種方法持懷疑態(tài)度。 “你為[FPGA的]靈活性付出了很多代價;編程真的很難,”他說。

Gwennap在去年年底的一項(xiàng)分析中指出,DSP也將發(fā)揮作用。Cadence、Ceva和Synopsys都提供面向神經(jīng)網(wǎng)絡(luò)的DSP內(nèi)核,他說。

加速器缺乏共同的基準(zhǔn)

這些芯片即將到來時,架構(gòu)師們卻還不確定如何評估這些芯片。

Patterson回憶說,就像RISC處理器的早期,“每個公司都會說,'你不要相信別人的基準(zhǔn),但是你可以相信我的',這可不太好。”

那個時候,RISC廠商們在SPEC基準(zhǔn)測試中進(jìn)行合作。現(xiàn)在,深度神經(jīng)網(wǎng)絡(luò)加速器需要自己定義的測試套件,涵蓋各種數(shù)據(jù)類型的訓(xùn)練和推理,以及獨(dú)立芯片和集群芯片。

聽到這個呼吁,Transaction Processing Performance Council(TPC)在12月12日宣布成立了一個工作組來定義機(jī)器學(xué)習(xí)的硬件和軟件基準(zhǔn)。TCP是由20多個頂級服務(wù)器和軟件制造商組成的團(tuán)體。TPC-AI委員會主席Raghu Nambiar表示,這么做的目標(biāo)是創(chuàng)建各種測試,并且這些測試不關(guān)乎加速器是CPU還是GPU。但是,這個團(tuán)隊(duì)的成員名單和時間框架還在不斷變化之中。

百度在2016年9月發(fā)布了一個基于其深度學(xué)習(xí)工作負(fù)載的開放源代碼基準(zhǔn)測試工具,使用32位浮點(diǎn)數(shù)學(xué)做訓(xùn)練任務(wù)。百度在6月份更新了DeepBench以涵蓋推理工作和16位數(shù)學(xué)的使用。

由哈佛大學(xué)研究人員發(fā)表的Fathom套件中,定義了8個人工智能工作負(fù)載,支持整數(shù)和浮點(diǎn)數(shù)據(jù)。Patterson表示:“這是一個開始,但是要獲得一個讓人感覺舒適的、全面的基準(zhǔn)測試套件還需要更多的工作。”

“如果我們致力于打造一個很好的基準(zhǔn),那么所有用在這個工程上的錢都是物有所值的。”

除了基準(zhǔn)之外,工程師還需要追蹤仍在演變的神經(jīng)網(wǎng)絡(luò)算法,以確保他們的設(shè)計不會被淘汰。

高通公司下一代核心研發(fā)總監(jiān)Karam Chatha表示:“軟件總是在變化的,但是你需要盡早把硬件拿出來,因?yàn)樗鼤绊戃浖?mdash;—這種關(guān)系總是存在的。目前,這家移動芯片廠商正在Snapdragon片上系統(tǒng)的DSP和GPU內(nèi)核上運(yùn)行神經(jīng)網(wǎng)絡(luò)工作,但一些觀察家預(yù)計,高通將為機(jī)器學(xué)習(xí)定制一個新的模塊,作為2019年的7納米Snapdragon SoC的一個組成部分。

 

展望2018 AI芯片領(lǐng)域:眾多廠商追隨深度學(xué)習(xí)

 

高通公司展示了一個自定義深度神經(jīng)網(wǎng)絡(luò)加速器的研究范例,但是現(xiàn)在高通在通用的DSP和GPU核心上使用軟件。來源:高通

Patterson表示:“市場會決定哪些芯片最好。這是很殘酷的,但這正是設(shè)計計算的興奮點(diǎn)所在。”

早期的玩家已經(jīng)抓住了這個偶然的機(jī)會。

例如,F(xiàn)acebook最近證明,通過大幅增加打包到所謂批量大小的功能數(shù)量,將訓(xùn)練時間從一天縮短到一個小時。對于試圖在本地SRAM中運(yùn)行所有操作的Graphcore來說,這可能是個壞消息,因?yàn)檫@消除了外部DRAM訪問的延遲,同時也限制了內(nèi)存占用。

“他們是為小批量設(shè)計的,但幾個月前的軟件結(jié)果表明,你需要一個大批量。這說明了事情變的話的有多么快,”Patterson說。

另一方面,Rex Computing認(rèn)為他們正處于一個有利的位置。該初創(chuàng)公司的SoC最初是為高性能服務(wù)器設(shè)計的,使用了一種新穎的暫存器內(nèi)存。聯(lián)合創(chuàng)始人Thomas Sohmers說,Rex的方法消除了在虛擬頁面表中緩存數(shù)據(jù)的需求,這是GPU使用的一種技術(shù),增加了延遲。

因此他說,Rex芯片比現(xiàn)在的GPU要好得多,特別是在處理流行的矩陣/矢量運(yùn)算神經(jīng)網(wǎng)絡(luò)時。Rex公司計劃6月份推出256核的SoC,預(yù)計能提供256Gflops/W。

與此同時,研究人員正在嘗試從32位到單浮點(diǎn)和整數(shù)數(shù)學(xué)的方方面面,以找到最有效的方法來計算神經(jīng)網(wǎng)絡(luò)結(jié)果。有一點(diǎn)似乎是他們認(rèn)同的,最好不要在精確度之間來回切換。

人工智能算法還處于初期階段

深度神經(jīng)網(wǎng)絡(luò)是幾十年來人工智能領(lǐng)域一直進(jìn)行的相對較小分支的工作。從2012年左右開始,包括Facebook公司的Yann LeCun在內(nèi)的很多研究人員開始使用特定種類的深度神經(jīng)網(wǎng)絡(luò)來識別圖像,并最終以比人類更高的準(zhǔn)確度得到令人驚嘆的結(jié)果。深度學(xué)習(xí)技術(shù)吸引了研究界,研究界迅速發(fā)表了不少該領(lǐng)域的論文,以尋求新的突破。

現(xiàn)在深度神經(jīng)網(wǎng)絡(luò)為Amazon Alexa、谷歌翻譯、Facebook面部識別等商用服務(wù)提供動力。網(wǎng)絡(luò)巨頭們和他們的全球競爭對手,正在尋找殺手級應(yīng)用的過程中競相將這些技術(shù)應(yīng)用于盡可能多的服務(wù)中。

微軟每年都會舉辦兩個主題是人工智能的內(nèi)部員工大會,最近一次規(guī)模達(dá)到5000人,前SPARC處理器架構(gòu)師Marc Tremblay表示,他現(xiàn)在負(fù)責(zé)微軟在定制人工智能芯片和系統(tǒng)方面的工作。

有專家坦言,他們并不完全理解為什么現(xiàn)有的算法獲得了這么好的效果。關(guān)于遞歸(RNN)和卷積(CNN)神經(jīng)網(wǎng)絡(luò)等類型的深度神經(jīng)網(wǎng)絡(luò)相對有效性引發(fā)了各種辯論,同時,新的模式仍在開發(fā)之中。

AMD公司研究員Allen Rush在最近一次關(guān)于人工智能的研討會上表示:“各種算法非常有可能在未來五年內(nèi)會發(fā)生變化。我們打賭,像矩陣乘法這樣的最底層的原語將是不可改變的。”

這就是Google在TPU上投入的賭注,最新版本的TPU是針對訓(xùn)練和推理任務(wù)的,它本質(zhì)上是一個大的乘法累加單元,運(yùn)行和保存線性代數(shù)例程的結(jié)果。預(yù)計Nervana和Graphcore芯片也將效仿這一做法。

哈佛大學(xué)前大腦研究員、Nervana共同創(chuàng)始人、現(xiàn)任英特爾Nervana集團(tuán)首席技術(shù)官Amir Khosrowshahi表示,目前在深度神經(jīng)網(wǎng)絡(luò)方面取得的成功,正在主導(dǎo)著更廣泛的人工智能領(lǐng)域。他在IEEE研討會上表示:“由于深度學(xué)習(xí)如此成功,所以在這之下事情發(fā)展得很順利。大家都在做深度神經(jīng)網(wǎng)絡(luò),這是一場悲劇......不要以為現(xiàn)在發(fā)生的事情,一年以后還會存在。”

 

展望2018 AI芯片領(lǐng)域:眾多廠商追隨深度學(xué)習(xí)

 

今天深度神經(jīng)網(wǎng)絡(luò)得到了如此多的關(guān)注,但這僅代表了更為廣泛的人工智能領(lǐng)域的很小一部分。(來源:英特爾)

盡管深度神經(jīng)網(wǎng)絡(luò)可以比人類更精確地識別圖像,但“如今的數(shù)據(jù)科學(xué)家被迫花費(fèi)不可接受的時間對數(shù)據(jù)進(jìn)行預(yù)處理,對模型和參數(shù)進(jìn)行迭代,并且等待訓(xùn)練的融合......每一步都要花費(fèi)太多人力,或者太過于計算密集型了,”Khosrowshahi說。

總的來說,“人工智能的難題仍然很難解決,”他補(bǔ)充說。“最好的研究人員可以用一個機(jī)器人打開一扇門,但要拿起杯子,可能比贏過Alpha Go(深度神經(jīng)網(wǎng)絡(luò)贏得的早期勝利之一)還難。”

在這種環(huán)境下,F(xiàn)acebook和Google等網(wǎng)絡(luò)巨頭都發(fā)布大型數(shù)據(jù)集,以吸引更多的人從事諸如對新應(yīng)用領(lǐng)域或者視頻等數(shù)據(jù)類型進(jìn)行識別的前沿問題。

先鋒者們拓展了應(yīng)用前沿

隨著算法的發(fā)展,研究人員也在推動深度學(xué)習(xí)的應(yīng)用前沿。

Google正在系統(tǒng)地將深度神經(jīng)網(wǎng)絡(luò)運(yùn)用于從自動字幕照片混合到讀取MRI掃描以及監(jiān)測工廠車間質(zhì)量控制等方方面面的問題。谷歌人工智能研發(fā)負(fù)責(zé)人Jia Li在IEEE研討會上表示:“人工智能不是單一的技術(shù)或產(chǎn)品。我們從理解一個領(lǐng)域開始,然后收集數(shù)據(jù),找到算法,并提出解決方案。每一個新問題我們都需要一個不同的模型。”

的確,深度神經(jīng)網(wǎng)絡(luò)正在被用于幾乎所有領(lǐng)域,包括設(shè)計和制造芯片。英特爾列舉了超過40種可能的用途,從面向消費(fèi)者的網(wǎng)上購物助手,到華爾街自動交易程序。

現(xiàn)在在Target公司擔(dān)任數(shù)據(jù)科學(xué)家的一位IBM前研究人員對應(yīng)用領(lǐng)域給予了更加清醒的認(rèn)識。大部分零售商的數(shù)據(jù)都是關(guān)系型數(shù)據(jù),而不是最適合神經(jīng)網(wǎng)絡(luò)的非結(jié)構(gòu)化數(shù)據(jù)。Shirish Tatikonda在一次大會后的簡短采訪中表示,Target公司的業(yè)務(wù)問題中只有大約10%適用于深度神經(jīng)網(wǎng)絡(luò)。盡管如此,該公司正在積極開拓這一領(lǐng)域,其系統(tǒng)中約有10%是面向訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的GPU服務(wù)器。

為了擴(kuò)展這樣大規(guī)模的努力,谷歌的研究人員正在探索他們所謂的AutoML,其想法是使用神經(jīng)網(wǎng)絡(luò)自動生成模型,而不需要數(shù)據(jù)科學(xué)家手動調(diào)整這些模型。

 

展望2018 AI芯片領(lǐng)域:眾多廠商追隨深度學(xué)習(xí)

 

盡管最近很多公司試圖減少內(nèi)存占用量,但深度神經(jīng)網(wǎng)絡(luò)模型在尺寸上仍然差別很大。來源:高通

機(jī)器人技術(shù)先驅(qū)Rodney Brooks擔(dān)心,預(yù)期可能會失控。他在最近的一次談話中說:“深度學(xué)習(xí)是好的,但它正在成為人們用來打擊一切的工具。”

對Patterson而言,他仍然很樂觀。他說,雖然廣泛的人工智能領(lǐng)域沒有兌現(xiàn)過去的承諾,但在機(jī)器翻譯等領(lǐng)域的成功是真實(shí)存在的。“可能所有低處的果實(shí)都摘下來了,所以沒有什么更令人興奮的事情,但是你幾乎每個星期都會看到有進(jìn)展......所以我認(rèn)為我們會發(fā)現(xiàn)更多的用途。”

首先是努力實(shí)現(xiàn)軟件融合

在早期的瘋狂和分裂之中,即使是軟件融合方面所做的事情也是很分散的。百度人工智能研究團(tuán)隊(duì)進(jìn)行了一項(xiàng)調(diào)查,發(fā)現(xiàn)11項(xiàng)措施來彌補(bǔ)那些爭著管理神經(jīng)網(wǎng)絡(luò)的各種軟件框架之間存在的差距。

最有希望的是Open Neural Network Exchange(ONNX),這是一個由Facebook和微軟發(fā)起的開源項(xiàng)目,最近Amazon也加入其中。該項(xiàng)目小組在12月份發(fā)布了ONNX格式的第一個版本,旨在將用把十幾個有競爭關(guān)系的軟件框架所創(chuàng)建的神經(jīng)網(wǎng)絡(luò)模型轉(zhuǎn)譯為圖形化呈現(xiàn)。

芯片制造商可以將他們的硬件瞄準(zhǔn)這些圖形。對于那些負(fù)擔(dān)不起為支持這些不同模型框架——例如Amazon的MxNet、Google的TensorFlow、Facebook的Caffe2以及微軟的CNTK——單獨(dú)編寫軟件的初創(chuàng)公司來說,這是一個好消息。

30多家主流芯片提供商組隊(duì)在12月20日發(fā)布了他們的首選項(xiàng)——Neural Network Exchange Format(NNEF),目標(biāo)是為芯片制造商提供一種替代方案,來創(chuàng)建自己的內(nèi)部格式,就像英特爾在Nervana Graph和Nvidia TensorRT那樣。

百度在各種各樣的格式中發(fā)現(xiàn)了ISAAC、NNVM、Poplar和XLA。百度硅谷人工智能實(shí)驗(yàn)室高級研究員Greg Diamos表示:“現(xiàn)在去預(yù)測是否會出現(xiàn)一個成功的實(shí)施,可能還為時尚早,但我們正在走上一條更好的道路,其中一條最終取得勝利。”

 

展望2018 AI芯片領(lǐng)域:眾多廠商追隨深度學(xué)習(xí)

 

在這些人工智能框架中,Amazon宣稱自己的MxNet框架和新出現(xiàn)的Gluon API提供了最高的效率。(來源:Amazon)

此外,谷歌已經(jīng)開始致力于開發(fā)軟件來自動化精簡深度神經(jīng)網(wǎng)絡(luò)模型,這樣這些模型就可以運(yùn)行在從智能手機(jī)物聯(lián)網(wǎng)(IoT)節(jié)點(diǎn)的方方面面。如果成功的話,可以將50Mb的模型降低到500Kb。

谷歌也已經(jīng)在探索在手持設(shè)備上做有限的模型訓(xùn)練,調(diào)整模型的頂層,或者基于白天收集的數(shù)據(jù)在夜間進(jìn)行處理。像SqueezeNet和MobileNet等,也展示了更簡單的成像模型路徑,且同樣精確。

負(fù)責(zé)Google TensorFlow Lite工作的Pete Warden表示:“我們看到有很多人在各種各樣的產(chǎn)品中使用機(jī)器學(xué)習(xí),每次操作降低1皮焦,這是我每天熬夜在做的事情。”

展望未來

當(dāng)專家認(rèn)真看待人工智能未來的時候,他們會看到一些有趣的可能性。

今天我們使用基于手動調(diào)整模型的監(jiān)督式學(xué)習(xí)。谷歌的Warden就是預(yù)見未來會出現(xiàn)半監(jiān)督方法的研究人員之一,他認(rèn)為未來手機(jī)等客戶端設(shè)備可以進(jìn)行自主學(xué)習(xí),最終目標(biāo)是無監(jiān)督式學(xué)習(xí)——計算機(jī)自學(xué),而不需要工程師們的幫助。

在這條道路上,研究人員正在尋找方法來自動標(biāo)記數(shù)據(jù),因?yàn)檫@些數(shù)據(jù)是由手機(jī)或物聯(lián)網(wǎng)節(jié)點(diǎn)等設(shè)備收集的。

西部數(shù)據(jù)公司首席數(shù)據(jù)科學(xué)家Janet George表示:“谷歌稱,現(xiàn)在在這個中間階段我們需要大量的計算,可一旦事情被自動標(biāo)記,你只需要索引新的增量內(nèi)容,這更像是人類如何處理數(shù)據(jù)的方式。”

無監(jiān)督式學(xué)習(xí)打開了一扇通向加速機(jī)器智能時代的大門,有些人認(rèn)為這是數(shù)字化的必殺技。另一些人則擔(dān)心技術(shù)可能會在沒有人為干預(yù)的情況下以災(zāi)難性的方式失控。谷歌公司TPU項(xiàng)目負(fù)責(zé)人Norm Jouppi說:這讓我感到害怕。

同時,從事半導(dǎo)體工作的學(xué)者對未來的人工智能芯片的發(fā)展由他們自己的長遠(yuǎn)愿景。

英特爾、Graphcore和Nvidia“已經(jīng)在制造全掩膜版芯片,下一步就是3D技術(shù),”Patterson說。“當(dāng)摩爾定律如火如荼時,由于擔(dān)心可靠性和成本問題人們可能會退縮。現(xiàn)在摩爾定律正在結(jié)束,我們將看到很多這方面的實(shí)驗(yàn)。”

最終是創(chuàng)造出新型的晶體管,可以在邏輯和內(nèi)存層進(jìn)行片上堆疊。

Notre Dame電氣工程教授Suman Datta很看好負(fù)電容鐵電晶體管作為此類芯片的基礎(chǔ)。他在最近召開的一次關(guān)于所謂單體3D結(jié)構(gòu)的會議上談到了該市場的格局。這樣的設(shè)計應(yīng)用并推進(jìn)了3-D NAND閃存在片上芯片堆棧方面所取得的進(jìn)展。

來自伯克利、麻省理工學(xué)院和斯坦福大學(xué)的團(tuán)隊(duì)將在2月份的國際固態(tài)電路會議上,展示一個類似的具有遠(yuǎn)見的架構(gòu)。該芯片(下圖)將電阻RAM(ReRAM)結(jié)構(gòu)堆疊在一個由碳納米管制成的邏輯上的相同模片上。

 

展望2018 AI芯片領(lǐng)域:眾多廠商追隨深度學(xué)習(xí)

 

來自伯克利、麻省理工學(xué)院和斯坦福大學(xué)的研究人員將在ISSCC上發(fā)布報告,關(guān)于一種使用碳納米管、ReRAM和圖形作為計算元件的新型加速器。(來源:加州大學(xué)伯克利分校)

該設(shè)備從深度神經(jīng)網(wǎng)絡(luò)獲得靈感,被編程為具有類似的模式而不是使用計算機(jī)一直在使用的確定數(shù)字。伯克利教授Jan Rabaey說,這個所謂的高維計算使用了幾萬維的向量作為計算元素。Rabaey為該報告做出了貢獻(xiàn),同時也是英特爾人工智能顧問委員會的成員。

Rabaey說,這種芯片可以從樣例中進(jìn)行學(xué)習(xí),與傳統(tǒng)系統(tǒng)相比操作要少得多。測試芯片將很快出爐,使用振蕩器陣列作為與相關(guān)存儲器陣列中的ReRAM單元配對的模擬邏輯。

Rabaey在IEEE人工智能研討會上表示:“我夢想著可以隨身攜帶的引擎,當(dāng)場就能給我提供指導(dǎo)......我的目標(biāo)是推動以小于100毫伏的功耗運(yùn)行[人工智能]。我們需要重新思考如何做計算。我們正在從基于算法的系統(tǒng)轉(zhuǎn)向基于數(shù)據(jù)的系統(tǒng)。”

鏈接已復(fù)制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號-6京公網(wǎng)安備 11010502049343號