先來看看網(wǎng)絡(luò)與存儲的融合,傳統(tǒng)的數(shù)據(jù)中心中存在三張網(wǎng),數(shù)據(jù)中心的前端訪問接口通常采用以太網(wǎng)進行互聯(lián)而成,構(gòu)成了一張高速運轉(zhuǎn)的數(shù)據(jù)網(wǎng)絡(luò)。數(shù)據(jù)中心后端的存儲更多的是采用NAS、FCSAN,服務(wù)器的并行計算則大多采用Infiniband和以太網(wǎng),多張網(wǎng)絡(luò)的并存提高了建設(shè)和運行管理的成本,為了適應(yīng)云計算成本的需要,網(wǎng)絡(luò)的三網(wǎng)融合就成為了必然趨勢。在數(shù)據(jù)中心網(wǎng)絡(luò)融合方面相關(guān)的技術(shù)標(biāo)準(zhǔn),廠商也業(yè)界也基本達成了共識,比如確定的40G/100G技術(shù)標(biāo)準(zhǔn),F(xiàn)CoE以太網(wǎng)光纖通道協(xié)議和DCB數(shù)據(jù)中心橋接(DataCenterBridging),雖然這些重要的網(wǎng)絡(luò)融合標(biāo)準(zhǔn)和協(xié)議已經(jīng)被廣泛的使用在現(xiàn)有的產(chǎn)品中,但產(chǎn)品的成熟和大規(guī)模商用,市場還要等待一段時間。
在數(shù)據(jù)中心內(nèi)部橫向流量的承載方面。數(shù)據(jù)中心網(wǎng)絡(luò)中原本分為三層:核心層,匯聚層和接入層,萬兆及以上的以太網(wǎng)交換機有較高的無阻塞吞吐量,允許用戶把服務(wù)器機架和柜頂式交換機直接連接到核心網(wǎng)絡(luò),從而不再需要匯聚層。再者在云計算數(shù)據(jù)中心中,出于虛擬機熱遷移的需求,如果匯聚層仍然采用二層網(wǎng)絡(luò)組網(wǎng),二層網(wǎng)絡(luò)的規(guī)模將大大增加,原有的STP生成樹協(xié)議將造成網(wǎng)絡(luò)鏈路的大量浪費,這就是為什么傳統(tǒng)的三層網(wǎng)絡(luò)一直運行良好,但在今天面臨服務(wù)器整合、虛擬機時則顯得有些過時的原因。根據(jù)這樣的需求,主流的網(wǎng)絡(luò)設(shè)備廠商都提出了針對大規(guī)模二層組網(wǎng)的方案。兩大標(biāo)準(zhǔn)組織IETF和IEEE分別提出了TRILL和SPB標(biāo)準(zhǔn)技術(shù),主流的網(wǎng)絡(luò)廠商,也根據(jù)自身技術(shù)的發(fā)展路線加入了不同的陣營,以推動相關(guān)標(biāo)準(zhǔn)的制定和商業(yè)化進程。而它們的總體思路相近,即通過對IS-IS協(xié)議的拓展,在二層轉(zhuǎn)發(fā)中進入路由技術(shù),實現(xiàn)對網(wǎng)絡(luò)鏈路的有效利用,以簡化網(wǎng)絡(luò),支持虛擬機的移動性,降低運營成本。目前大二層網(wǎng)絡(luò)技術(shù)標(biāo)準(zhǔn)的博弈逐漸明朗,業(yè)界已經(jīng)對通過TRILL標(biāo)準(zhǔn)實現(xiàn)大二層組網(wǎng)逐漸達成了共識。
最后,我們一起看看虛擬機流量的接入與控制的問題。由于虛擬機的引入,虛擬機間流量的交換深入到了網(wǎng)卡內(nèi)部進行,使得原來服務(wù)器與網(wǎng)絡(luò)設(shè)備之間清晰的網(wǎng)絡(luò)界限被打破,于是在數(shù)據(jù)中心的服務(wù)器的網(wǎng)絡(luò)接入層出現(xiàn)了新的虛擬網(wǎng)絡(luò)橋接層,通過軟件的VSwitch實現(xiàn)。雖然實現(xiàn)簡單,但其占用CPU資源導(dǎo)致了一系列的問題;此外也可以借助SR-IOV特性的網(wǎng)絡(luò)來實現(xiàn)硬件的虛擬網(wǎng)絡(luò)橋接,CPU開銷得到了改善,但虛擬機的流量管理等問題仍然存在。于是爭論又來了,針對虛擬網(wǎng)絡(luò)交換出現(xiàn)出現(xiàn)了眾多的技術(shù)體系,有的目前仍然在不斷的進化過程中,但有的已經(jīng)被叫停,它們包括802.1Qbg,802.1Qbh,802.1BR和思科VN-Tag。目前802.1Qbg標(biāo)準(zhǔn)已經(jīng)獲得了主流廠商的支持,并可提供基于草案標(biāo)準(zhǔn)的解決方案,802.1Qbh目前已被叫停,802.1BR處于起步階段,思科VN-Tag是其私有的技術(shù)標(biāo)準(zhǔn)。