GPU(圖形處理單元)服務器如今很常見,圍繞GPU計算的生態(tài)系統(tǒng)正在迅速發(fā)展,以提高GPU工作負載的效率和可擴展性。然而在避免存儲和網(wǎng)絡中潛在的瓶頸的同時,也有一些技巧可以很大限度地提高GPU的利用率。
Excelero公司首席技術官Sven Breuner和首席架構師Kirill Shoikhet提供了9個為人工智能、機器學習和深度學習做好準備的更好實踐。
數(shù)據(jù)點1:了解目標系統(tǒng)性能、投資回報率和可擴展性計劃。
這樣,他們就可以與數(shù)據(jù)中心目標相吻合。隨著人工智能成為核心業(yè)務的重要組成部分,大多數(shù)組織都從最初的少量預算和少量培訓數(shù)據(jù)集入手,并為無縫和快速的系統(tǒng)增長在基礎設施方面做好準備。需要構建所選的硬件和軟件基礎設施,以實現(xiàn)靈活的橫向擴展,以避免在每個新的增長階段產(chǎn)生破壞性的變化。數(shù)據(jù)科學家與系統(tǒng)管理員之間的緊密協(xié)作對于了解性能要求,并了解基礎設施可能需要隨著時間的推移而發(fā)展而至關重要。
數(shù)據(jù)點2:評估集群多個GPU系統(tǒng)。
在擁有多個GPU的服務器中可以在系統(tǒng)內(nèi)部實現(xiàn)高效的數(shù)據(jù)共享和通信,并具有成本效益,而參考設計假定將來會在集群中使用,并且在單個服務器中最多支持16個GPU。多GPU服務器需要準備好以非常高的速率讀取傳入的數(shù)據(jù),以保持GPU滿載運行,這意味著它需要一個超高速網(wǎng)絡連接,一直到培訓數(shù)據(jù)庫的存儲系統(tǒng)。但是在某個時候,單臺服務器將不足以在合理的時間內(nèi)通過不斷增長的培訓數(shù)據(jù)庫進行工作,因此,在設計中構建共享存儲基礎設施將使得隨著人工智能、機器學習、深度學習用途的擴展,并更容易添加GPU服務器。
數(shù)據(jù)點3:評估人工智能工作流程各個階段的瓶頸。
數(shù)據(jù)中心基礎設施需要能夠同時處理人工智能工作流程的所有階段。對于具有成本效益的數(shù)據(jù)中心來說,擁有可靠的資源調(diào)度和共享概念是至關重要的,因此,當一組數(shù)據(jù)科學家獲得需要攝取和準備的新數(shù)據(jù)時,其他人將對其可用數(shù)據(jù)進行培訓,而在其他地方,先前生成的模型將用于生產(chǎn)。Kubernetes已經(jīng)成為解決這一問題的主要解決方案,它使云計算技術在內(nèi)部部署很容易獲得,并使混合部署變得可行。
數(shù)據(jù)點4:查看用于優(yōu)化GPU利用率和性能的策略。
許多人工智能、機器學習、深度學習應用程序的計算密集型性質(zhì)使基于GPU的服務器成為常見選擇。但是,盡管GPU可以有效地從內(nèi)存加載數(shù)據(jù),但是訓練數(shù)據(jù)集通常遠遠超過內(nèi)存的容量,并且涉及的大量文件變得更加難以攝取。在GPU服務器之間以及與存儲基礎設施之間、實現(xiàn)GPU數(shù)量與可用CPU功率、內(nèi)存和網(wǎng)絡帶寬之間的最佳平衡至關重要。
數(shù)據(jù)點5:支持訓練和推理階段的需求。
在訓練系統(tǒng)“看貓”的一個經(jīng)典示例中,計算機執(zhí)行數(shù)字游戲(或更確切地說是GPU)需要看到很多顏色各不相同的貓。由于包含大量并行文件讀取的訪問的性質(zhì),NVMe閃存通過提供超低的訪問延遲和每秒的大量讀取操作很好地滿足了這些要求。在推理階段,其挑戰(zhàn)是相似的,因為對象識別通常實時進行,這是NVMe閃存還具有延遲優(yōu)勢的另一個用例。
數(shù)據(jù)點6:考慮并行文件系統(tǒng)和替代方案。
諸如IBM公司的SpectrumScale或BeeGFS之類的并行文件系統(tǒng)可以幫助有效地處理大量小文件的元數(shù)據(jù),并通過在網(wǎng)絡上每秒交付數(shù)萬個小文件,從而使機器學習數(shù)據(jù)集的分析速度提高3到4倍。鑒于訓練數(shù)據(jù)具有只讀性,因此在將數(shù)據(jù)量直接提供給GPU服務器并通過Kubernetes之類的框架以共享方式共享數(shù)據(jù)時,也可以完全避免使用并行文件系統(tǒng)。
數(shù)據(jù)點7:選擇正確的網(wǎng)絡主干。
人工智能、機器學習、深度學習通常是一種新的工作負載,將其重新安裝到現(xiàn)有的網(wǎng)絡基礎設施中,通常無法支持復雜計算和快速高效數(shù)據(jù)傳輸所需的低延遲、高帶寬、高消息速率和智能卸載?;赗DMA的網(wǎng)絡傳輸RoCE(融合以太網(wǎng)上的RDMA)和InfiniBand已成為滿足這些新需求的標準。
數(shù)據(jù)點8:考慮四個存儲系統(tǒng)的性價比杠桿。
(1)高讀取吞吐量與低延遲結合在一起,這不會限制混合部署,并且可以在云平臺或內(nèi)部部署資源上運行。
(2)數(shù)據(jù)保護。人工智能、機器學習、深度學習存儲系統(tǒng)通常比數(shù)據(jù)中心中的其他系統(tǒng)要快得多,因此在完全故障后從備份中恢復可能會花費很長時間,并且會中斷正在進行的操作。深度學習訓練的只讀特性使它非常適合分布式擦除編碼,在這種存儲中,最高容錯能力已經(jīng)內(nèi)置在主存儲系統(tǒng)中,原始容量和可用容量之間的差異很小。
(3)容量彈性可適應任何大小或類型的驅動器,以便隨著閃存介質(zhì)的發(fā)展和閃存驅動器特性的擴展,數(shù)據(jù)中心可以在最重要的情況下最大程度地實現(xiàn)規(guī)模化的性價比。
(4)性能彈性。由于人工智能數(shù)據(jù)集需要隨著時間的推移而增長,以進一步提高模型的準確性,因此存儲基礎設施應實現(xiàn)接近線性的縮放系數(shù),在這種情況下,每增加一次存儲都會帶來同等的增量性能。這使得組織可以從小規(guī)模開始,并根據(jù)業(yè)務需要無中斷地增長。
數(shù)據(jù)點9:設置基準和性能指標以幫助實現(xiàn)可擴展性。
例如,對于深度學習存儲,一種度量標準可能是每個GPU每秒處理X個文件(通常為數(shù)千或數(shù)萬個),其中每個文件的平均大小為Y(從幾十個到數(shù)千個)KB。預先建立適當?shù)亩攘繕藴视兄趶囊婚_始就確定架構方法和解決方案,并指導后續(xù)擴展。