本文主要給大家介紹隱藏在華為云EI(企業(yè)智能)數(shù)據(jù)湖探索服務(wù)(以下簡(jiǎn)稱DLI)背后的核心計(jì)算引擎——Spark。華為云EI數(shù)據(jù)湖探索服務(wù)團(tuán)隊(duì)在Spark之上做了大量的性能優(yōu)化與服務(wù)化改造,但其本質(zhì)還是脫離不了Spark的核心概念與思想,本文從以下幾點(diǎn)闡述,讓讀者快速對(duì)Spark有一個(gè)直觀的認(rèn)識(shí),玩轉(zhuǎn)DLI。
Spark的誕生及優(yōu)勢(shì)
2009年,Spark誕生于伯克利大學(xué)AMPLab,誕生之初是屬于伯克利大學(xué)的研究性項(xiàng)目。于2010年開源,2013年成為Apache開源項(xiàng)目,經(jīng)過幾年的發(fā)展逐漸取代了Hadoop,成為了開源社區(qū)炙手可熱的大數(shù)據(jù)處理平臺(tái)。
Spark官方的解釋:“Spark是用于大規(guī)模數(shù)據(jù)處理的統(tǒng)一分析引擎“,把關(guān)鍵詞拆開來看,“大規(guī)模數(shù)據(jù)”指的是Spark的使用場(chǎng)景是大數(shù)據(jù)場(chǎng)景;“統(tǒng)一”主要體現(xiàn)在將大數(shù)據(jù)的編程模型進(jìn)行了歸一化,同時(shí)滿足多種類型的大數(shù)據(jù)處理場(chǎng)景(批處理、流處理、機(jī)器學(xué)習(xí)等),降低學(xué)習(xí)和維護(hù)不同大數(shù)據(jù)引擎的成本;“分析引擎”表明Spark聚焦在計(jì)算分析,對(duì)標(biāo)的是Hadoop中的MapReduce,對(duì)其模型進(jìn)行優(yōu)化與擴(kuò)展。
Spark為了解決MapReduce模型的優(yōu)化和擴(kuò)展,我們先探討一下MapReduce存在的問題,然后分析Spark在MapReduce之上的改進(jìn)。
(1)MapReduce中間結(jié)果落盤,計(jì)算效率低下
隨著業(yè)務(wù)數(shù)據(jù)不斷增多,業(yè)務(wù)邏輯不斷多樣化,很多ETL和數(shù)據(jù)預(yù)處理的工作需要多個(gè)MapReduce作業(yè)才能完成,但是MapReduce作業(yè)之間的數(shù)據(jù)交換需要通過寫入外部存儲(chǔ)才能完成,這樣會(huì)導(dǎo)致頻繁地磁盤讀寫,降低作業(yè)執(zhí)行效率。
Spark設(shè)計(jì)之初,就想要解決頻繁落盤問題。Spark只在需要交換數(shù)據(jù)的Shuffle階段(Shuffle中文翻譯為“洗牌”,需要Shuffle的關(guān)鍵性原因是某種具有共同特征的數(shù)據(jù)需要最終匯聚到一個(gè)計(jì)算節(jié)點(diǎn)上進(jìn)行計(jì)算)才會(huì)寫磁盤,其它階段,數(shù)據(jù)都是按流式的方式進(jìn)行并行處理。
(2)編程模型單一,場(chǎng)景表達(dá)能力有限
MapReduce模型只有Map和Reduce兩個(gè)算子,計(jì)算場(chǎng)景的表達(dá)能力有限,這會(huì)導(dǎo)致用戶在編寫復(fù)雜的邏輯(例如join)時(shí),需要自己寫關(guān)聯(lián)的邏輯,如果邏輯寫得不夠高效,還會(huì)影響性能。
與MapReduce不同,Spark將所有的邏輯業(yè)務(wù)流程都抽象成是對(duì)數(shù)據(jù)集合的操作,并提供了豐富的操作算子,如:join、sortBy、groupByKey等,用戶只需要像編寫單機(jī)程序一樣去編寫分布式程序,而不用關(guān)心底層Spark是如何將對(duì)數(shù)據(jù)集合的操作轉(zhuǎn)換成分布式并行計(jì)算任務(wù),極大的簡(jiǎn)化了編程模型
Spark的核心概念
Spark中最核心的概念是RDD(Resilient Distributed Dataset) - 彈性分布式數(shù)據(jù)集,顧名思義,它是一個(gè)邏輯上統(tǒng)一、物理上分布的數(shù)據(jù)集合,Spark通過對(duì)RDD的一系列轉(zhuǎn)換操作來表達(dá)業(yè)務(wù)邏輯流程,就像數(shù)學(xué)中對(duì)一個(gè)向量的一系列函數(shù)轉(zhuǎn)換。Spark通過RDD的轉(zhuǎn)換依賴關(guān)系生成對(duì)任務(wù)的調(diào)度執(zhí)行的有向無環(huán)圖,并通過任務(wù)調(diào)度器將任務(wù)提交到計(jì)算節(jié)點(diǎn)上執(zhí)行,任務(wù)的劃分與調(diào)度是對(duì)業(yè)務(wù)邏輯透明的,極大的簡(jiǎn)化了分布式編程模型,RDD也豐富了分布式并行計(jì)算的表達(dá)能力。
RDD上的操作分為Transformation算子和Action算子。Transformation算子用于編寫數(shù)據(jù)的變換過程,是指邏輯上組成變換過程。Action算子放在程序的最后一步,用于對(duì)結(jié)果進(jìn)行操作,例如:將結(jié)果匯總到Driver端(collect)、將結(jié)果輸出到HDFS(saveAsTextFile)等,這一步會(huì)真正地觸發(fā)執(zhí)行。
常見的Transformation算子包括:map、filter、groupByKey、join等,這里面又可以分為Shuffle算子和非Shuffle算子,Shuffle算子是指處理過程需要對(duì)數(shù)據(jù)進(jìn)行重新分布的算子,如:groupByKey、join、sortBy等。常見的Action算子如:count、collect、saveAsTextFile等
如下是使用Spark編程模型編寫經(jīng)典的WordCount程序:
Spark的架構(gòu)設(shè)計(jì)
Spark是典型的主從(Master- Worker)架構(gòu),Master 節(jié)點(diǎn)上常駐 Master守護(hù)進(jìn)程,負(fù)責(zé)管理全部的 Worker 節(jié)點(diǎn)。Worker 節(jié)點(diǎn)上常駐 Worker 守護(hù)進(jìn)程,負(fù)責(zé)與 Master 節(jié)點(diǎn)通信并管理 Executor。
我們可以把Master和Worker看成是生產(chǎn)部總部老大(負(fù)責(zé)全局統(tǒng)一調(diào)度資源、協(xié)調(diào)生產(chǎn)任務(wù))和生產(chǎn)部分部部長(zhǎng)(負(fù)責(zé)分配、上報(bào)分部的資源,接收總部的命令,協(xié)調(diào)員工執(zhí)行任務(wù)),把Driver和Executor看成是項(xiàng)目經(jīng)理(負(fù)責(zé)分配任務(wù)和管理任務(wù)進(jìn)度)和普通員工(負(fù)責(zé)執(zhí)行任務(wù)、向項(xiàng)目經(jīng)理匯報(bào)任務(wù)執(zhí)行進(jìn)度)。
項(xiàng)目經(jīng)理D to 總部老大M:Hi,老大,我剛接了一個(gè)大項(xiàng)目,需要你通知下面的分部部長(zhǎng)W安排一些員工組成聯(lián)合工作小組。
總部老大M to 分部部長(zhǎng)W:最近項(xiàng)目經(jīng)理D接了一個(gè)大項(xiàng)目,你們幾個(gè)部長(zhǎng)都安排幾個(gè)員工,跟項(xiàng)目經(jīng)理D一起組成一個(gè)聯(lián)合工作小組。
分部部長(zhǎng)W to 員工E:今天把大家叫到一起,是有個(gè)大項(xiàng)目需要各位配合項(xiàng)目經(jīng)理D去一起完成,稍后會(huì)成立聯(lián)合工作小組,任務(wù)的分配和進(jìn)度都直接匯報(bào)給項(xiàng)目經(jīng)理D。
項(xiàng)目經(jīng)理D to 員工E:從今天開始,我們會(huì)一起在這個(gè)聯(lián)合工作小組工作一段時(shí)間,希望我們好好配合,把項(xiàng)目做好。好,現(xiàn)在開始分配任務(wù)…
員工E to 項(xiàng)目經(jīng)理D:你分配的xxx任務(wù)已完成,請(qǐng)分配其它任務(wù)。
項(xiàng)目所有任務(wù)都完成后,項(xiàng)目經(jīng)理D to 總部老大M:Hi,老大,項(xiàng)目所有的任務(wù)都已經(jīng)完成了,聯(lián)合工作小組可以解散了,感謝老大的支持。