發(fā)布源:深圳維創(chuàng)信息技術(shù)發(fā)布時間:2020-09-14 瀏覽次數(shù): 次
對于大的數(shù)據(jù)中心,出于不同業(yè)務(wù)需求和平衡考量,很有可能會同時部署不同的超融合架構(gòu),不同HCI之間無法整合和互操作,結(jié)果就是又多了幾個新的信息孤島。
新的信息孤島帶來了資源利用效率和統(tǒng)一管理的問題。
2)性能一致性問題數(shù)據(jù)中心中存儲的性能至關(guān)重要,而且期望性能是可以預(yù)測并保持一致性的,包括延遲、IOPS和帶寬,這一點尤其對核心業(yè)務(wù)系統(tǒng)很關(guān)鍵。
對于超融合架構(gòu)而言,這一點恰恰是很大的挑戰(zhàn)。
原因主要有兩點:一是超融合架構(gòu)“共享一切”。
計算和存儲會爭搶CPU/內(nèi)存/網(wǎng)絡(luò)等物理資源,而且計算和存儲又相互依賴,一旦一方資源需求驟升就是導(dǎo)致另一方資源枯竭,進而影響性能并在整個基礎(chǔ)架構(gòu)中產(chǎn)生漣漪效應(yīng)。
雖然可以采用cgroup或容器技術(shù)進行資源隔離限制,但和非超融合架構(gòu)的效果還是不同的。
二是超融合架構(gòu)“一切分布式和軟件定義”,集群規(guī)模較大后,網(wǎng)絡(luò)、硬盤、服務(wù)器發(fā)生故障的概率都會增大,數(shù)據(jù)重刪/壓縮/加密/糾刪碼等功能都用軟件實現(xiàn),故障的自修復(fù)和數(shù)據(jù)功能實現(xiàn)都會消耗一定的系統(tǒng)資源,導(dǎo)致性能下降和抖動。
自修復(fù)的流控,數(shù)據(jù)功能旁路到硬件模塊處理,這些方法會緩解性能一致性問題,但似乎又與超融合的理念相背離。
3)橫向擴展之殃超融合架構(gòu)關(guān)鍵特征之一就是易于擴展,最小部署,按需擴容。
超融合架構(gòu)廠商宣稱最大集群規(guī)模也差別很大,從數(shù)十到數(shù)千節(jié)點不等,通常從3節(jié)點起配。
超融合中計算能力、存儲性能和容量是同步擴容的,無法滿足現(xiàn)實中單項能力的擴展,有些廠商還對擴容最小單元有要求,擴展靈活性會受到限制。
集群達到一定規(guī)模后,系統(tǒng)架構(gòu)復(fù)雜性就會非線性增加,集群管理變的更加困難,硬件故障和自修復(fù)發(fā)生的概率也會大大增加。
因此,我們是不建議構(gòu)建大集群的,如果業(yè)務(wù)允許盡量構(gòu)建多個適當規(guī)模的較小集群,或者采用大集群中構(gòu)建故障域或子資源池,光大是不行的。
集群擴展還面臨一個棘手問題,就是容量均衡。
如果存儲集群容量很大,均衡是一個非常漫長而痛苦的過程,同時還會對正常的業(yè)務(wù)負載產(chǎn)生較大的影響。
4)系統(tǒng)復(fù)雜性超融合架構(gòu)簡化了IT架構(gòu),極大降低了數(shù)據(jù)中心設(shè)計的復(fù)雜性,實現(xiàn)了快速交付,并極大簡化了運維管理。
不過,這都是基于用戶角度的,從產(chǎn)品研發(fā)角度而言,超融合實際上使得內(nèi)部的軟件復(fù)雜性更高了。
前面我們已經(jīng)闡述,超融合架構(gòu)需要采用CVM虛擬機控制器,并且需要將主機物理設(shè)備透傳給控制虛機,增加了部署配置管理的復(fù)雜性。
計算和存儲對硬件平臺的要求都不同,融合后也會一定程度上增加兼容性驗證的復(fù)雜性。
超融合架構(gòu)下,管理、計算、存儲、高可用通常都需要配置獨立的虛擬網(wǎng)絡(luò),網(wǎng)絡(luò)配置也會更加復(fù)雜。
同時,共享物理資源的分配、隔離、調(diào)度,這也是額外增加的復(fù)雜性。
還有一點,如果出現(xiàn)故障,問題的跟蹤調(diào)試和分析診斷也變得更加困難。
5)SSD分層存儲閃存SSD基本成為超融合架構(gòu)中必不可少的元素,消除了計算和存儲的巨大鴻溝,解決了I/O性能瓶頸問題,尤其是I/O隨機讀寫能力。
目前閃存的價格相對HDD磁盤還是要高于許多,迫于成本因素,全閃超融合方案應(yīng)用仍然較少,多數(shù)應(yīng)用以SSD混合存儲配置為主,從而獲得較高的性價比。
通常情況下,我們假設(shè)熱點數(shù)據(jù)占10-20%,配置相應(yīng)比例的SSD存儲,采用Cache加速或Tier分層模式將熱點數(shù)據(jù)存儲在SSD存儲中,一旦熱點數(shù)據(jù)超過預(yù)先設(shè)置閾值或觸發(fā)遷移策略,則按相應(yīng)淘汰算法將較冷數(shù)據(jù)遷移回HDD磁盤存儲,從而期望在性能和容量方面達到整體平衡。
看上去很完美是吧?SSD擅長的隨機讀寫,帶寬并不是它的強項,對于帶寬型應(yīng)用,SSD對性能并沒有幫助。
關(guān)于熱點數(shù)據(jù)占比,這個并不好估計,如果SSD配置不足,性能會變得更差。
假設(shè)應(yīng)用場景合適并且SSD配置合理,情況又如何呢?SSD空間最終要被熱點數(shù)據(jù)占滿,就會觸發(fā)數(shù)據(jù)遷移,這時HDD存儲仍將成為I/O性能瓶頸,同時還要承擔正常的I/O業(yè)務(wù)負載,整體性能就會出現(xiàn)降級和抖動。
為了緩解這一問題,SSD Cache/Tier功能實現(xiàn)中,一方面會過濾掉順序讀寫I/O,另一方面會把空間閾值設(shè)置較低,盡早進行數(shù)據(jù)遷移,同時選擇系統(tǒng)空閑時間執(zhí)行和流控。
帶來的負面效應(yīng)是,SSD性能加速效果受限,物理設(shè)備效率發(fā)揮不充分。
另外,SSD本身被寫滿時性能也會出現(xiàn)較大的波動。
因此,SSD混合存儲并非理想模式,實際中我們推薦根據(jù)應(yīng)用場景采用全閃SSD或全磁盤HDD配置,從而獲得一致性的性能表現(xiàn)。
如果真的無法全用SSD,還有另外一種應(yīng)用方式,同時創(chuàng)建一個全SSD和一個全HDD存儲池,人為按照性能需求將虛擬機分配到不同存儲池中。
6)企業(yè)級數(shù)據(jù)功能目前在大多數(shù)超融合系統(tǒng)以及SDS系統(tǒng)都具備了核心的企業(yè)級功能,包括數(shù)據(jù)冗余、自動精簡配置、快照、克隆、SSD Cache/Tier、數(shù)據(jù)自動重建、高可用/多路徑等數(shù)據(jù)功能,有些甚至還提供了重復(fù)數(shù)據(jù)刪除、數(shù)據(jù)加密、數(shù)據(jù)壓縮等高級數(shù)據(jù)功能。
然而,相對于高端存儲系統(tǒng),如果超融合架構(gòu)要承載核心關(guān)鍵應(yīng)用,還有很大的差距,包括但不限于QoS控制、數(shù)據(jù)保護、數(shù)據(jù)遷移、備份容災(zāi)、一致性的高性能。
核心存儲系統(tǒng)應(yīng)該遵循RAS-P原則,先做好穩(wěn)定可靠性,其次是企業(yè)數(shù)據(jù)功能完備性,最后才是高性能,這個順序不能亂,光有高性能是不行的。
比如Ceph,企業(yè)級數(shù)據(jù)功能列表多而全,功能規(guī)格參數(shù)非常誘人,但真正穩(wěn)定而且能夠?qū)嶋H生產(chǎn)部署應(yīng)用的其實不多。
目前,核心關(guān)鍵業(yè)務(wù)系統(tǒng)還不太敢往超融合架構(gòu)上遷移,主要還是從非核心業(yè)務(wù)開始檢驗,畢竟超融合出現(xiàn)時間還比較短,需要更多的時間和實踐驗證RAS-P特性。
但是,未來超融合必定是核心關(guān)鍵業(yè)務(wù)的主流架構(gòu)。
7)物理環(huán)境應(yīng)用目前普遍公認的適合應(yīng)用場景是桌面云、服務(wù)器虛擬化、OpenStack私有云、大數(shù)據(jù)分析等新型應(yīng)用。
理論上超融合系統(tǒng)可以適用于IT環(huán)境的所有應(yīng)用類型,需要注意的是,超融合系統(tǒng)管理虛擬化環(huán)境,而更多的傳統(tǒng)IT應(yīng)用仍然運行在物理服務(wù)器和傳統(tǒng)存儲系統(tǒng)之上。
我們可以樂觀地認為沒有哪一種應(yīng)用程序不能被部署在超融合基礎(chǔ)架構(gòu)上,但是考慮到運行效率、硬件依賴性以及和虛擬化環(huán)境兼容性等因素,很多IT應(yīng)用最好還是繼續(xù)保持運行在物理硬件架構(gòu),比如數(shù)據(jù)庫應(yīng)用、實時控制系統(tǒng)以及大量遺留IT系統(tǒng)。
8)異構(gòu)虛擬化環(huán)境目前超融合方案通常是僅支持一種虛擬化環(huán)境,Nutanix可以支持多種虛擬化環(huán)境,但是對于一套超融合架構(gòu)部署,實際上也僅支持一種虛擬化環(huán)境。
每種虛擬化環(huán)境都有各自的優(yōu)勢,很多企業(yè)可能需要同時運行幾種虛擬化環(huán)境,比如VMware、KVM、Hyper-V、XEN,因為超融合不支持異構(gòu)虛擬化環(huán)境,需要部署多套超融合架構(gòu),這就是新的信息孤島。
客戶非常希望看到支持異構(gòu)虛擬化環(huán)境的超融合架構(gòu)方案。
9)超融合數(shù)據(jù)共享超融合架構(gòu)采用軟件定義存儲替換傳統(tǒng)的共享式存儲解決了虛擬化存儲問題,這里的SDS實際上主要是指ServerSAN,提供分布式塊存儲。
然而無論是虛擬機還是物理機,實際IT應(yīng)用都有著數(shù)據(jù)共享需求,需要分布式文件系統(tǒng)或NAS存儲系統(tǒng)。
這是目前超融合普遍缺失的,現(xiàn)實還是依賴外部獨立部署的NAS或集群NAS存儲系統(tǒng),比如GlusterFS、ZFS。
從技術(shù)架構(gòu)和實現(xiàn)來說,一個SDS系統(tǒng)很好地統(tǒng)一支持Object/Block/File存儲,這個非常難以實現(xiàn)的。
比如Ceph,它的CephFS一直沒有達到生產(chǎn)環(huán)境部署標準,更別提性能。
因此,超融合架構(gòu)中可以采用相同方式同時部署兩套SDS存儲,分別提供分布式塊存儲和文件系統(tǒng)文件共享存儲,比如SSAN和GlusterFS,不必非得要求分布式統(tǒng)一存儲。
10)全棧超融合架構(gòu)目前很多廠商都在推超融合架構(gòu)方案,其中一部分是SDS廠商,一部分是虛擬化廠商,還有更多的是集成商,像VMware/Nutanix同時做SDS和虛擬化的廠商非常少。
SDS和虛擬化是兩個完全迥異的領(lǐng)域,而且技術(shù)門檻都非常高,一個廠商同時把這兩塊都做到很好是非常難的。
兩者都想做的廠商,無非是想控制成本、自主可控、擴大市場、融資好講故事。
對于初創(chuàng)公司,團隊和資金非常有限,打造全棧超融合架構(gòu)更是困難重重。
正確的姿態(tài)可能是,確定戰(zhàn)略方向重點做好一塊,然后再找另一塊做得好的廠商進行戰(zhàn)略生態(tài)合作,強強聯(lián)手打造有競爭力的超融合架構(gòu)方式,無論從產(chǎn)品技術(shù)還是市場角度都是雙贏的。
Copyright © 2021 深圳市維創(chuàng)信息技術(shù)有限公司 版權(quán)所有