在OpenStack之前,這幾年被人們談論最多的開源項目應該是Linux和Hadoop。
當然Linux時間比較長了,對于它一直的茁壯成長,根據(jù)我從外界的了解,可能與Linus本人對內(nèi)核的控制力度強有關,還有最大的商業(yè)發(fā)行版RedHat(同樣開源,包括對應的CentOS)長期處于穩(wěn)固地位。
至于Hadoop,最早的3篇論文來自Google,也是核心思想。Hadoop項目初期最大的貢獻者是Yahoo,而且至少到成熟的1.0穩(wěn)定版本都是如此。軟件方面并非我的長項,后來對Hadoop的關注也減少了。
那么OpenStack呢?最初是Rackspace分享出來,然后有一段RedHat的投入較多,最近基金會里和社區(qū)里好像HP的力度最大。盡管眾人拾柴,但OpenStack在還沒有充分成熟的情況下,主導者就出現(xiàn)了變化。
在OpenStack IceHouse版本中貢獻排名前十的公司如上圖所示。紅帽、IBM、HP、Rackspace以及Mirantis繼續(xù)領先(引用自:http://www.openstack.cn/p1385.html 2014年4月)
(Juno版本)HP和Redhat是一個級別,Mirantis,Rackspace,IBM是一個級別。后面的差距都已經(jīng)有點大。(引用自:http://www.chenshake.com/chat-openstack-contribution/ 2014年8月)
而開源組織、行業(yè)標準聯(lián)盟面臨的一個問題是:各方面利益的制衡。作為一個存儲人,這一點我覺得在SNIA身上就比較明顯,OpenStack也有類似的情況。我已經(jīng)不止一次聽到UnitedStack的兄弟說,他們想提交一些代碼/patch到主流版本,但阻力較大。
CephFS的現(xiàn)狀與未來
就在上周日舉行的OpenStack存儲技術研討會上,我一方面看到UnitedStack繼續(xù)預熱宣講尚未解決元數(shù)據(jù)集群穩(wěn)定性(也就是高可用)的CephFS文件系統(tǒng);另一方面也聽到HP內(nèi)部測試了Ceph分布式塊存儲之后,認為其尚未達到商業(yè)部署要求,而在Helion中推薦自家的軟件定義存儲VSA。
這里應該不難看出背后的商業(yè)驅(qū)動因素,我也指出HP StorVirtual(LeftHand)VSA目前存在的一些局限或者說不足,在這里就不展開了。
剛才又聽到一位朋友說:“今兒裝Ceph 0.9哎,太坑爹了。比Gluster差至少一個數(shù)量級啊。”
畢竟Gluster已經(jīng)3.x版本了,其成熟度不容懷疑。國內(nèi)著名Gluster專家,目前正在做分布式塊存儲(Server SAN)創(chuàng)業(yè)的@劉愛貴 表示:“Ceph適合用于塊存儲,文件系統(tǒng)不是它的長項(不如Gluster等),其對象存儲功能還不如直接用Swift。”正如有的朋友所說:(塊、文件和對象)都擅長也可以理解為都不擅長。
引用自劉愛貴的GlusterFS分布式文件系統(tǒng)分享 http://vdisk.weibo.com/s/HPecIjqX8sc
達沃時代CTO雷迎春則表示:“從體系結構的設計上,Ceph是2004年左右設計的,當時的目的是在千兆環(huán)境下充分利用硬盤的I/O,每一個硬盤有一個osd進程。而現(xiàn)在,硬件環(huán)境發(fā)生天翻地覆的變化,應用的workload大都來自虛擬機。Ceph要適應現(xiàn)在的硬、軟環(huán)境,需要重新設計。”
“統(tǒng)一存儲在功能上實現(xiàn)比較容易,小規(guī)模,如盤陣形式,不會有大的問題。但是,在中大規(guī)模,性能上和可靠性上很難做到一致。”
“Ceph的優(yōu)勢是Crush,劣勢也是Crush。對于同質(zhì)硬件、單一Workload,Crush會體現(xiàn)它的簡單性,但是,實際情況是,我們的硬件是異質(zhì)的,不僅CPU和Memory不同,存儲介質(zhì)也會不同,更重要的不同是workload的不同,特別是在多租戶環(huán)境下對不同workload或用戶的服務保證。”
注意:這里的11個9指的是數(shù)據(jù)可靠性而不是可用性(Availability)
由此來看,UnitedStack用全SSD達到單一客戶端6000 IOPS,小于2ms延時,提供SLA和QoS(性能隔離)可以說做得不錯了。只是還沒看到閃存磁盤混合存儲,以及混合工作負載下的表現(xiàn)。
眾所周知,企業(yè)存儲最重要的是穩(wěn)定性;滿足這個之后,應該是兼容性;性能可能要排在兼容性后面。用戶為虛擬化/云平臺后端維護不同后端的多個存儲集群,來滿足文件/塊等訪問協(xié)議需求,確實會增加復雜度。這時,我覺得Ceph倒是挺符合“中庸”的思路。
Ceph與OpenStack整合的一個好處是:Nova, Glance, Cinder之間沒有數(shù)據(jù)傳輸,快速創(chuàng)建虛擬機,只需要管理一個統(tǒng)一存儲。
再來看看Nutanix、ScaleIO、FusionStorage和VSAN,它們要么性能強大,要么功能豐富,要么和HyperVisor結合緊密,不過都只是塊存儲。針對VSAN提供文件服務的NexentaConnect,盡管我還沒對其仔細研究,但大致理解成在VSAN分布式存儲的節(jié)點上跑個虛機做ZFS NAS網(wǎng)關,估計差不多吧。
如果說OpenStack還有個CloudStack競爭的話,Ceph的“統(tǒng)一”或者說“通用”目前在流行的競爭產(chǎn)品中是有些獨特性。不過我也了解到國內(nèi)也有人在做類似通吃塊、文件和對象三種訪問協(xié)議的分布式存儲;也有要攻關專門面向特定場景優(yōu)化的Server SAN(可能就是文中出現(xiàn)過的大牛哦),我想這2個方向都是有市場需求的。
未來這里面會不會出現(xiàn)一家分布式軟件定義存儲(SDS)廠商呢?
2015,新的一年開始了。如果我們在第二季度看到國內(nèi)廠商(不是熱衷跑分的某司哈)用分布式塊存儲跑出一個理想的SPC-1 BenchMark(延伸閱讀:SPC-1:閃存 vs.磁盤新舊勢力的戰(zhàn)場)成績,會作何感想呢?當然,ScaleIO等已經(jīng)過云和恩墨的驗證可以勝任OLTP應用了。如果可以的話,下一步就等著軟件定義存儲吹響大規(guī)模替代傳統(tǒng)企業(yè)級磁盤陣列的號角了。
節(jié)選博文:http://blog.sina.com.cn/s/blog_69406f8d0102va59.html