女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

分布式存儲:GPFS與Ceph對比

架構(gòu)師技術(shù)聯(lián)盟 ? 來源:架構(gòu)師技術(shù)聯(lián)盟 ? 2023-08-18 09:23 ? 次閱讀

1. GPFS和CEPH的初次亮相

GPFS,是一個高性能的共享并行文件系統(tǒng),自誕生起,就為高性能、數(shù)據(jù)共享、開放、安全而生。為了更好的融入IBM光譜存儲大家庭,我有了個更好聽的名字——SPECTRUM SCALE,當(dāng)然對于我來說,這不僅僅是名字的變更,也意味在我身上,增加了關(guān)于閃存、容災(zāi)、備份、云平臺接入等諸多特性,我扮演的角色更加重要,職能定位也愈加明晰了。關(guān)于未來,我也有自己的想法,有更大的愿景,希望能和數(shù)據(jù)中心的其它小朋友們相處愉快,和諧。

CEPH,是一個00后,名字來源于寵物章魚的一個綽號,頭像就是一只可愛的軟體章魚,有像章魚觸角一樣并發(fā)的超能力。我平常主要活躍在云計算領(lǐng)域,經(jīng)過多年的脫胎換骨,不斷迭代,我積攢了良好的口碑,好用,穩(wěn)定,關(guān)鍵還免費,我可以提供對象,塊和文件級存儲的接口,幾乎可以覆蓋所有…哇,說著說著突然感覺自己原來無所不能呢,當(dāng)然,目前我還在長身體的階段,很多特性在趨于完善,希望未來我們可以相互促進成長。

2. GPFS的前世今生

作為一款成熟的商業(yè)產(chǎn)品,GPFS的發(fā)展史早已百轉(zhuǎn)千回了,在揭開GPFS的面紗之前,我們還是先來掃掃盲,復(fù)習(xí)一下在GPFS集群架構(gòu)中涉及到的基本概念和組件。

GPFS架構(gòu)解藕

a) Cluster:GPFS的組成架構(gòu),由一系列的節(jié)點和NSD組成,集群的配置文件通常保存在兩臺主備的節(jié)點上。

b) Node:安裝了GPFS軟件的主機,它可以通過直接或者通過網(wǎng)絡(luò)訪問其它節(jié)點的方式來訪問存儲,每個節(jié)點在集群配置中有不同的角色。

c) Cluster manager:負(fù)責(zé)整個集群配置的正確性和完整性,主要負(fù)責(zé)監(jiān)控磁盤租約,檢測節(jié)點故障和控制節(jié)點的故障恢復(fù),共享配置信息,選舉文件管理節(jié)點等任務(wù)。

d) File system manager:維護文件系統(tǒng)中磁盤的可用性信息,管理磁盤空間,文件系統(tǒng)配置,磁盤配額等。

e) Block:一個集群中單個I/O操作和空間分配的最大單位。

f) NSD:提供全局?jǐn)?shù)據(jù)訪問的集群組件,如果節(jié)點和磁盤間沒有直接連接,則NSD最好具有主服務(wù)節(jié)點和輔服務(wù)節(jié)點。

g) Chunk: FPO架構(gòu)中的概念,它是一組block塊的集合,看起來像一個大的block,一般用于大數(shù)據(jù)環(huán)境。

h) Failure Group:一組共享故障的磁盤組,當(dāng)其中一塊盤失效時,整個組會同時失效。

i) Metadata:包括集群配置信息和非用戶數(shù)據(jù)。

j) Quorum Nodes:用于保持集群活動的仲裁節(jié)點,一般有兩種仲裁方式,節(jié)點仲裁和帶Tiebreakerdisk(心跳盤)的仲裁

上述組件如何有機的組合在一起提供存儲服務(wù)呢,把以上組件拼接起來,就可以得到下圖所示的集群大體架構(gòu):

f1657682-3d55-11ee-ac96-dac502259ad0.png

GPFS使用方案

基本架構(gòu)了解了,那怎么用呢?先祭出三張架構(gòu)圖,業(yè)內(nèi)人士一看應(yīng)該懂,不明白沒關(guān)系,往下針對這幾張圖稍作解釋:

f192a0da-3d55-11ee-ac96-dac502259ad0.png

GPFS在系統(tǒng)架構(gòu)設(shè)計十分靈活,豐富的功能延伸出了多種組網(wǎng)方式,而每種組網(wǎng)方式適配不同的應(yīng)用模式,常見組網(wǎng)方式包括SAN、NSD、SNC、Remote Cluster和混合組網(wǎng)方式。

Storage Area Network(SAN) Model要求計算節(jié)點直接掛載存儲,并且充當(dāng)計算節(jié)點、NSD Server、NSD Client三種角色。NSD Server通過存儲網(wǎng)絡(luò)或直連的方式連接到存儲設(shè)備上,前端通信協(xié)議為GE,后端通信協(xié)議為FC或Infiniband,適用于小規(guī)模集群。

Network Shared Disk(NSD) Server Model要求計算節(jié)點安裝GPFS軟件,并充當(dāng)NSD Client角色,使用單獨的服務(wù)器充當(dāng)NSD Server,負(fù)責(zé)處理I/O。NSD磁盤BuildingBlock的方式,每兩臺服務(wù)器通過直連的方式連接到NSD Server上,前端通信協(xié)議為10GE或Infiniband,后端通信協(xié)議為FC或Infiniband,適用于大規(guī)模集群擴展。

Shared Nothing Cluster(SNC)Model要求計算節(jié)點安裝GPFS軟件,并充當(dāng)NSD Client角色,使用單獨的服務(wù)器充當(dāng)NSD Server,負(fù)責(zé)處理I/O。NSD采用服務(wù)器自帶硬盤,或者獨立存儲,數(shù)據(jù)之間不使用寬條帶方式進行分布,而采用FPO方式進行排布。前端通信協(xié)議為10GE或Infiniband,后端通信協(xié)議為FC或Infiniband。適用于Hadoop和Mapreduce環(huán)境。

Remote Cluster Mount Model要求GPFS提供在多個GPFS集群間共享數(shù)據(jù)的服務(wù),GPFS在其他集群mount本集群的資源,其訪問磁盤和本地訪問磁盤體驗類似,這種跨集群訪問可以是在一個數(shù)據(jù)中心也可以是跨遠(yuǎn)距離的WAN。在一個多集群配置中每個集群可以進行分別的管理,在簡化管理的同時提供一個多組織數(shù)據(jù)訪問的視圖。前端通信協(xié)議為10GE或Infiniband,后端通信協(xié)議為FC或Infiniband,適用于同城或異地部署環(huán)境。

混合組網(wǎng)環(huán)境下,GPFS允許在一個集群中混合部署多種組網(wǎng)環(huán)境,例如集群中部分主機采用Storage Area Network (SAN) Model,部分主機采用Network Shared Disk (NSD) Server Model方式進行組網(wǎng)。當(dāng)多個組網(wǎng)類型同時存在于一個集群中時,影響的只是集群使用NSD的方式,對于上層主機對數(shù)據(jù)的訪問沒有影響。

GPFS應(yīng)用場景

在傳統(tǒng)DB2數(shù)據(jù)庫雙活方案GDPC的使用場景中,為了實現(xiàn)跨站點的雙活+容災(zāi),底層存儲方案選用GPFS,雙站點架構(gòu)中,兩個站點均配備主機和存儲資源,每個站點的存儲形成一個failure group, 遠(yuǎn)程訪問對端存儲采用nsd server的方式訪問,兩個failure group間完全冗余,任何一個站點出現(xiàn)故障都不影響文件系統(tǒng)的正常使用,并通過第三方站點的一臺服務(wù)器和nsd作為仲裁節(jié)點,是真正意義上的雙活。

GPFS可以用來替代HDFS作為大數(shù)據(jù)的底層存儲,GPFS FPO+Symphony作為相對Mapreduce更領(lǐng)先的分布式計算框架,可以更靈活和支持和對接企業(yè)的IT使用場景。

在IBM的部分企業(yè)級云產(chǎn)品中,GPFS FPO也被用來作為私有云產(chǎn)品的底層存儲來使用,用來存儲虛機鏡像和介質(zhì),這一點上使用和CEPH也極為相似。

3.CEPH的發(fā)展之路

作為云計算的三架馬車,網(wǎng)絡(luò),存儲,管理平臺,業(yè)界的開源方案里,網(wǎng)絡(luò)層面SDN日漸成熟,管理平臺上,Openstack已經(jīng)創(chuàng)造了一個時代,而CEPH,無疑成為存儲最犀利的開源解決方案。談起它的架構(gòu)之前,我們有必要先來了解以下這些概念,同時為了更加形象化,我們將部分組件對應(yīng)到GPFS的組件上來理解,但請注意實際的功能和結(jié)構(gòu)仍然差別巨大。

CEPH架構(gòu)解藕

a) Ceph monitor——對應(yīng)quorum + cluster manager:保存CEPH的集群狀態(tài)映射,維護集群的健康狀態(tài)。它分別為每個組件維護映射信息,包括OSD map、MON map、PG map和CRUSH map。所有群集節(jié)點都向MON節(jié)點匯報狀態(tài)信息,并分享它們狀態(tài)中的任何變化。Ceph monitor不存儲數(shù)據(jù),這是OSD的任務(wù)。

b) OSD——對應(yīng)NSD: CEPH的對象存儲設(shè)備,只要應(yīng)用程序向Ceph集群發(fā)出寫操作,數(shù)據(jù)就會被以對象形式存儲在OSD中。這是Ceph集群中唯一能存儲用戶數(shù)據(jù)的組件,同時用戶也可以發(fā)送讀命令來讀取數(shù)據(jù)。通常,一個OSD守護進程會被綁定到集群中的一塊物理磁盤,一塊磁盤啟動一個OSD進程,可以對應(yīng)GPFS的NSD概念。

c) Pool:是存儲對象的邏輯分區(qū),它規(guī)定了數(shù)據(jù)冗余的類型和對應(yīng)的副本分布策略,副本支持兩種類型:副本(replicated)和 糾刪碼(Erasure Code)

d) PG(placement group)——對應(yīng)Chunk:是一個放置策略組,它是對象的集合,該集合里的所有對象都具有相同的放置策略;簡單點說就是相同PG內(nèi)的對象都會放到相同的硬盤上;PG是ceph的核心概念, 服務(wù)端數(shù)據(jù)均衡和恢復(fù)的最小粒度就是PG;

e) MDS——對應(yīng)Filesystem manager:Ceph元數(shù)據(jù)服務(wù)器,MDS只為CephFS文件系統(tǒng)跟蹤文件的層次結(jié)構(gòu)和存儲元數(shù)據(jù)。Ceph塊設(shè)備和RADOS并不需要元數(shù)據(jù),因此也不需要Ceph MDS守護進程。MDS不直接提供數(shù)據(jù)給客戶端,從而消除了系統(tǒng)中的故障單點。

f) RADOS:RADOS是Ceph存儲集群的基礎(chǔ)。在Ceph中,所有數(shù)據(jù)都以對象形式存儲,并且無論是哪種數(shù)據(jù)類型,RADOS對象存儲都將負(fù)責(zé)保存這些對象。RADOS層可以確保數(shù)據(jù)始終保持一致。要做到這一點,須執(zhí)行數(shù)據(jù)復(fù)制、故障檢測和恢復(fù),以及數(shù)據(jù)遷移和在所有集群節(jié)點實現(xiàn)再平衡。g) RBD:RADOS塊設(shè)備,提供持久塊存儲,它是自動精簡配置并可調(diào)整大小的,而且將數(shù)據(jù)分散存儲在多個OSD上。RBD服務(wù)已經(jīng)被封裝成了基于librados的一個原生接口。

h) RGW:RADOS網(wǎng)關(guān)接口,RGW提供對象存儲服務(wù)。它使用librgw和librados,允許應(yīng)用程序與Ceph對象存儲建立連接。RGW提供了與Amazon S3和OpenStack Swift兼容的RESTful API

i) CephFS——對應(yīng)GPFS文件系統(tǒng):Ceph文件系統(tǒng)提供了一個使用Ceph存儲集群存儲用戶數(shù)據(jù)的與POSIX兼容的文件系統(tǒng)。和RBD、RGW一樣,CephFS服務(wù)也基于librados封裝了原生接口。

同樣,如果把上述元素和概念按照邏輯進行拼接,可以得到以下這張CEPH的基本架構(gòu)圖,圖中反映了各個組件的邏輯關(guān)系。

f1c4a5d0-3d55-11ee-ac96-dac502259ad0.png

CEPH提供了一個理論上無限擴展的集群,客戶端和ceph osd進程通過crush算法來計算數(shù)據(jù)位置,而不必依賴一個中心查找表,我們知道凡是網(wǎng)絡(luò)設(shè)備都有并發(fā)連接數(shù)據(jù)的限制,集中式/單體式的存儲系統(tǒng),對于大規(guī)模部署來說,很容易達(dá)到物理極限,在CEPH的數(shù)據(jù)訪問機制中,客戶端和osd進程直接通信,提高了性能和系統(tǒng)總?cè)萘浚藛吸c故障,CEPH客戶端僅在需要時與osd進程建立一個會話。

osd進程加入一個集群,并且報告他們的狀態(tài),分為up和down兩種狀態(tài),代表是否可以響應(yīng)ceph客戶端的需求,如果osd進程失敗,則無法通知ceph monitor它已經(jīng)down掉,ceph通過周期性的ping OSD進程,確保它正在運行,CEPH授權(quán)OSD進程,確定授信的OSD進程是否已關(guān)閉,更新cluster map,并報告給CEPH Monitor。

OSD進程也通過crush算法,計算對象的副本應(yīng)該存放的位置,在一個寫場景中,客戶端使用crush算法計算應(yīng)該在哪里存放對象,并將對象映射到一個pool和placement group,然后查詢crush map來定位placement group中的主OSD進程。

客戶端將對象寫入主osd的placement group中,然后主osd使用它自己的crush map來找到第二、三個OSD,并且將對象副本寫入第二、第三OSD的placement group中,主OSD在確認(rèn)對象存儲成功后會給客戶端一個回應(yīng)。OSD進程完成數(shù)據(jù)的復(fù)制,不需要ceph客戶端參與,保證了數(shù)據(jù)的高可用性和數(shù)據(jù)安全。

CephFS從數(shù)據(jù)中分離出元數(shù)據(jù)并保存在MDS中,而文件數(shù)據(jù)保存在CEPH存儲集群的objects中,ceph-mds作為一個進程單獨運行,也可以分布在多個物理主機上,達(dá)到高可用和擴展性。

CEPH使用方案

了解了架構(gòu)和原理,該怎么使用呢?Ceph主要用于完全分布式操作,沒有單點故障,可擴展到exabyte級別,完全免費使用。其采用的位置感知算法和數(shù)據(jù)復(fù)制機制使其具有容錯能力,并且不需要特定的硬件支持,也成為他天生驕傲的資本,大大降低了使用門檻,在貧瘠的物理介質(zhì)上就可以野蠻生長。一般來說,CEPH主要提供三種使用場景,rbd(block device),對象存儲和CephFS文件系統(tǒng)方式,如下圖所示:

f1f487c8-3d55-11ee-ac96-dac502259ad0.png

CEPH客戶端使用原生協(xié)議與CEPH存儲集群進行交互,CEPH將這些功能打包成librados庫,因此你可以創(chuàng)建自己的CEPH客戶端,CEPH作為分布式存儲,對外提供各類型的標(biāo)準(zhǔn)存儲服務(wù)。

CEPH block device的快照功能對于虛擬化和云計算來講很有吸引力,在虛擬機場景中,極具典型的是在Qemu/KVM使用rbd網(wǎng)絡(luò)存儲驅(qū)動部署CEPH block device,宿主機使用librbd向客戶機提供塊設(shè)備服務(wù)。而在K8S管理的容器平臺中,Ceph也可以提供標(biāo)準(zhǔn)rbd設(shè)備的動態(tài)供給和共享存儲空間。

Scrub是Ceph集群進行的副本間的數(shù)據(jù)掃描操作,以檢測副本間的數(shù)據(jù)一致性,包括Scrub和Deep-Scrub,其中Scrub只是對元數(shù)據(jù)信息進行掃描,相對比較快,而Deep-Scrub不僅對元數(shù)據(jù)進行掃描,還會對存儲的數(shù)據(jù)進行掃描,相對比較慢。Ceph集群會定期進行Scrub操作。

當(dāng)然,Ceph Scrub機制存在的問題。在發(fā)現(xiàn)不一致對象后,缺少策略來自動矯正錯誤,比如如果多數(shù)副本達(dá)成一致,那么少數(shù)副本對象會被同化。Scrub 機制并不能及時解決存儲系統(tǒng)端到端正確的問題,很有可能上層應(yīng)用早已經(jīng)讀到錯誤數(shù)據(jù),下面一起來看看Scrub的工作流程:

① OSD 會以 PG 為粒度觸發(fā) Scrub流程,觸發(fā)的頻率可以通過選項指定,而一個PG的Scrub啟動都是由該 PG 的 Master 角色所在OSD啟動。

② 一個PG在普通的環(huán)境下會包含幾千個到數(shù)十萬個不等的對象,因為Scrub流程需要提取對象的校驗信息然后跟其他副本的校驗信息對比,這期間被校驗對象的數(shù)據(jù)是不能被修改的。因此一個PG的Scrub流程每次會啟動小部分的對象校驗,Ceph 會以每個對象名的哈希值的部分作為提取因子,每次啟動對象校驗會找到符合本次哈希值的對象,然后進行比較。這也是 Ceph稱其為Chunky Scrub的原因。

③ 在找到待校驗對象集后,發(fā)起者需要發(fā)出請求來鎖定其他副本的這部分對象集。因為每個對象的Master和Replicate節(jié)點在實際寫入到底層存儲引擎的時間會出現(xiàn)一定的差異。這時候,待校驗對象集的發(fā)起者會附帶一個版本發(fā)送給其他副本,直到這些副本節(jié)點與主節(jié)點同步到相同版本。

④ 在確定待校驗對象集在不同節(jié)點都處于相同版本后,發(fā)起者會要求所有節(jié)點都開始計算這個對象集的校驗信息并反饋給發(fā)起者。

⑤ 該校驗信息包括每個對象的元信息如大小、擴展屬性的所有鍵和歷史版本信息等等,在Ceph 中被稱為 ScrubMap。

⑥ 發(fā)起者會比較多個ScrubMap并發(fā)現(xiàn)不一致的對象,不一致對象會被收集最后發(fā)送給 Monitor,最后用戶可以通過Monitor了解Scrub的結(jié)果信息。

另外,當(dāng)用戶在發(fā)現(xiàn)出現(xiàn)不一致的對象時,可以通過“ceph pgrepair [pg_id]”的方式來啟動修復(fù)進程,目前的修復(fù)僅僅會將主節(jié)點的對象全量復(fù)制到副本節(jié)點,因此目前要求用戶手工確認(rèn)主節(jié)點的對象是“正確副本”。此外,Ceph允許Deep Scrub模式來全量比較對象信息來期望發(fā)現(xiàn) Ceph 本身或者文件系統(tǒng)問題,這通常會帶來較大的IO負(fù)擔(dān),因此在實際生產(chǎn)環(huán)境中很難達(dá)到預(yù)期效果。

通過上述Scrub流程,大家也會發(fā)現(xiàn)目前的 Scrub機制還存在以下2個問題:

① 在發(fā)現(xiàn)不一致對象后,缺少策略來自動矯正錯誤,比如如果多數(shù)副本達(dá)成一致,那么少數(shù)副本對象會被同化。

② Scrub 機制并不能及時解決存儲系統(tǒng)端到端正確的問題,很有可能上層應(yīng)用早已經(jīng)讀到錯誤數(shù)據(jù)。

對于第一個問題,目前Ceph已經(jīng)有Blueprint來加強Scrub的修復(fù)能力,用戶啟動Repair時會啟動多數(shù)副本一致的策略來替代目前的主副本同步策略。

4、GlusterFS和Ceph對比

GlusterFS和Ceph是兩個靈活的存儲系統(tǒng),有著相似的數(shù)據(jù)分布能力,在云環(huán)境中表現(xiàn)非常出色。在嘗試了解GlusterFS與Ceph架構(gòu)之后,我們來看看兩者之間的簡單對比。

縱向擴展和橫向擴展:在云環(huán)境中,必須可以很容易地向服務(wù)器添加更多存儲空間以及擴展可用存儲池。Ceph和GlusterFS都可以通過將新存儲設(shè)備集成到現(xiàn)有存儲產(chǎn)品中,滿足擴充性能和容量的要求。

高可用性:GlusterFS和Ceph的復(fù)制是同時將數(shù)據(jù)寫入不同的存儲節(jié)點。這樣做的結(jié)果是,訪問時間增加,數(shù)據(jù)可用性也提高。在Ceph中,默認(rèn)情況下將數(shù)據(jù)復(fù)制到三個不同的節(jié)點,以此確保備份始終可用性。

商品化硬件:GlusterFS和Ceph是在Linux操作系統(tǒng)之上開發(fā)的。因此,對硬件唯一的要求是這些產(chǎn)品具有能夠運行Linux的硬件。任何商品化硬件都可以運行Linux操作系統(tǒng),結(jié)果是使用這些技術(shù)的公司可以大大減少在硬件上的投資——如果他們這樣做的話。然而,實際上,許多公司正在投資專門用于運行GlusterFS或Ceph的硬件,因為更快的硬件可以更快地訪問存儲。

去中心化:在云環(huán)境中,永遠(yuǎn)不應(yīng)該有中心點故障。對于存儲,這意味著不應(yīng)該用一個中央位置存儲元數(shù)據(jù)。GlusterFS和Ceph實現(xiàn)了元數(shù)據(jù)訪問去中心化的解決方案,從而降低了存儲訪問的可用性和冗余性。

現(xiàn)在再來談?wù)凣lusterFS與Ceph的差異。顧名思義,GlusterFS是來自Linux世界的文件系統(tǒng),并且遵守所有Portable Operating System Interface標(biāo)準(zhǔn)。盡管你可以將GlusterFS輕松集成到面向Linux的環(huán)境中,但在Windows環(huán)境中集成GlusterFS很難。

Ceph是一種全新的存儲方法,對應(yīng)于Swift對象存儲。在對象存儲中,應(yīng)用程序不會寫入文件系統(tǒng),而是使用存儲中的直接API訪問寫入存儲。因此,應(yīng)用程序能夠繞過操作系統(tǒng)的功能和限制。如果已經(jīng)開發(fā)了一個應(yīng)用程序來寫入Ceph存儲,那么使用哪個操作系統(tǒng)無關(guān)緊要。結(jié)果表明Ceph存儲在Windows環(huán)境中像在Linux環(huán)境中一樣容易集成。

基于API的存儲訪問并不是應(yīng)用程序可以訪問Ceph的唯一方式。為了最佳的集成,還有一個Ceph塊設(shè)備,它可以在Linux環(huán)境中用作常規(guī)塊設(shè)備,使你可以像訪問常規(guī)Linux硬盤一樣來使用Ceph。Ceph還有CephFS,它是針對Linux環(huán)境編寫的Ceph文件系統(tǒng)。

為了比較GlusterFS與Ceph哪個更快已經(jīng)進行了幾項測試,但迄今為止沒有確切的結(jié)論。GlusterFS存儲算法更快,并且由于GlusterFS以磚組織存儲的方式實現(xiàn)了更多的分層,這在某些場景下(尤其是使用非優(yōu)化Ceph)可能導(dǎo)致更快的速度。另一方面,Ceph提供了足夠的定制功能來使其與GlusterFS一樣快。

然而,實踐表明Ceph訪問存儲的不同方法使其成為更流行的技術(shù)。更多的公司正在考慮Ceph技術(shù)而不是GlusterFS,而且GlusterFS仍然與Red Hat密切相關(guān)。例如,SUSE還沒有GlusterFS的商業(yè)實施,而Ceph已經(jīng)被開源社區(qū)廣泛采用,市場上有各種不同的產(chǎn)品。在某種意義上來說,Ceph確實已經(jīng)勝過GlusterFS。

5.分布式存儲未來

未來的IT架構(gòu)是生態(tài)之爭,贏生態(tài)者得天下,就像開放的安卓贏得了眾多開發(fā)者的親賴,繁榮的產(chǎn)品生態(tài)也成就了安卓。運維自動化和智能化運維建設(shè),要求底層IT環(huán)境實現(xiàn)高度整合,自主可控更是對開放性的要求,開放是一個產(chǎn)品的親和力,意味著可以更靈活的融入當(dāng)前IT環(huán)境,當(dāng)前云計算的存儲標(biāo)準(zhǔn)接口仍然有開放席位,靜待新的有生力量入駐。

不管是存儲,還是網(wǎng)絡(luò)等基礎(chǔ)架構(gòu),都在試圖屏蔽底層物理硬件的差異,實現(xiàn)硬件的標(biāo)準(zhǔn)化管理,用軟件定義一切,分布式存儲就是在這樣的趨勢下,贏得了蓬勃發(fā)展的契機,開放的產(chǎn)品接口,豐富的插件,與當(dāng)前環(huán)境的兼容耦合性,都將成為分布式存儲領(lǐng)域制勝的關(guān)鍵,未來分布式存儲在安全性、產(chǎn)品化建設(shè)、兼容性、可管理性、穩(wěn)定性上的不懈努力,將是引領(lǐng)分布式存儲占領(lǐng)數(shù)據(jù)中心存儲江山的重要砝碼。






審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 驅(qū)動器
    +關(guān)注

    關(guān)注

    54

    文章

    8606

    瀏覽量

    148958
  • MDS
    MDS
    +關(guān)注

    關(guān)注

    0

    文章

    6

    瀏覽量

    8182
  • 分布式存儲
    +關(guān)注

    關(guān)注

    4

    文章

    178

    瀏覽量

    19766
  • Linux操作系統(tǒng)
    +關(guān)注

    關(guān)注

    0

    文章

    54

    瀏覽量

    11330
  • NSD
    NSD
    +關(guān)注

    關(guān)注

    0

    文章

    5

    瀏覽量

    5902

原文標(biāo)題:分布式存儲:GPFS對話Ceph(收藏)

文章出處:【微信號:架構(gòu)師技術(shù)聯(lián)盟,微信公眾號:架構(gòu)師技術(shù)聯(lián)盟】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    曙光存儲領(lǐng)跑中國分布式存儲市場

    近日,賽迪顧問發(fā)布《中國分布式存儲市場研究報告(2025)》,指出2024 年中國分布式存儲市場首次超過集中式存儲,規(guī)模達(dá) 198.2 億元
    的頭像 發(fā)表于 05-19 16:50 ?246次閱讀

    兆芯+圖云創(chuàng)智—可信分布式存儲系統(tǒng)解決方案

    圖云創(chuàng)智分布式存儲系統(tǒng)采用全分布式設(shè)計與先進的存儲虛擬化技術(shù)相結(jié)合,由多個獨立的兆芯 x86 服務(wù)器作為存儲節(jié)點,聯(lián)合道熵
    的頭像 發(fā)表于 04-23 10:29 ?116次閱讀
    兆芯+圖云創(chuàng)智—可信<b class='flag-5'>分布式</b><b class='flag-5'>存儲</b>系統(tǒng)解決方案

    分布式存儲有哪幾種類型?

    分布式存儲有哪幾種類型?分布式存儲系統(tǒng)是一種將數(shù)據(jù)分散存儲在多臺獨立節(jié)點上的技術(shù),根據(jù)數(shù)據(jù)模型可分為鍵值
    的頭像 發(fā)表于 02-20 11:00 ?432次閱讀

    分布式云化數(shù)據(jù)庫有哪些類型

    分布式云化數(shù)據(jù)庫有哪些類型?分布式云化數(shù)據(jù)庫主要類型包括:關(guān)系型分布式數(shù)據(jù)庫、非關(guān)系型分布式數(shù)據(jù)庫、新SQL分布式數(shù)據(jù)庫、以列方式
    的頭像 發(fā)表于 01-15 09:43 ?381次閱讀

    WDS分布式存儲系統(tǒng)軟件助力電信工程海量數(shù)據(jù)存儲項目

    WDS分布式存儲系統(tǒng)軟件助力電信工程海量數(shù)據(jù)存儲項目
    的頭像 發(fā)表于 11-11 09:59 ?446次閱讀
    WDS<b class='flag-5'>分布式</b><b class='flag-5'>存儲</b>系統(tǒng)軟件助力電信工程海量數(shù)據(jù)<b class='flag-5'>存儲</b>項目

    某證券公司智能云投資交易云集群高性能分布式存儲應(yīng)用

    某證券公司智能云投資交易云集群高性能分布式存儲應(yīng)用
    的頭像 發(fā)表于 09-27 09:57 ?467次閱讀
    某證券公司智能云投資交易云集群高性能<b class='flag-5'>分布式</b><b class='flag-5'>存儲</b>應(yīng)用

    分布式存儲費用高嗎?大概需要多少錢

    分布式存儲的費用是否高,取決于多個因素,包括存儲容量、性能要求、服務(wù)提供商、計費模式等。因此,無法簡單地給出一個“高”或“不高”的答案。通常分布式
    的頭像 發(fā)表于 09-24 10:41 ?505次閱讀

    基于分布式存儲系統(tǒng)醫(yī)療影像數(shù)據(jù)存儲解決方案

    基于分布式存儲系統(tǒng)醫(yī)療影像數(shù)據(jù)存儲解決方案
    的頭像 發(fā)表于 09-14 09:53 ?607次閱讀
    基于<b class='flag-5'>分布式</b><b class='flag-5'>存儲</b>系統(tǒng)醫(yī)療影像數(shù)據(jù)<b class='flag-5'>存儲</b>解決方案

    基于分布式對象存儲WDS的信托非結(jié)構(gòu)化數(shù)據(jù)整合平臺

    基于分布式對象存儲WDS的信托非結(jié)構(gòu)化數(shù)據(jù)整合平臺
    的頭像 發(fā)表于 08-28 09:56 ?582次閱讀
    基于<b class='flag-5'>分布式</b>對象<b class='flag-5'>存儲</b>WDS的信托非結(jié)構(gòu)化數(shù)據(jù)整合平臺

    醫(yī)療PACS影像數(shù)據(jù)的極速分布式存儲解決方案

    醫(yī)療PACS影像數(shù)據(jù)的極速分布式存儲解決方案
    的頭像 發(fā)表于 08-23 10:13 ?617次閱讀
    醫(yī)療PACS影像數(shù)據(jù)的極速<b class='flag-5'>分布式</b>塊<b class='flag-5'>存儲</b>解決方案

    基于分布式存儲WDS的金融信創(chuàng)云承載數(shù)據(jù)庫類關(guān)鍵應(yīng)用

    基于分布式存儲WDS的金融信創(chuàng)云承載數(shù)據(jù)庫類關(guān)鍵應(yīng)用
    的頭像 發(fā)表于 08-16 09:42 ?497次閱讀
    基于<b class='flag-5'>分布式</b><b class='flag-5'>存儲</b>WDS的金融信創(chuàng)云承載數(shù)據(jù)庫類關(guān)鍵應(yīng)用

    基于DPU的Ceph存儲解決方案

    1. 方案背景和挑戰(zhàn) Ceph是一個高度可擴展、高性能的開源分布式存儲系統(tǒng),設(shè)計用于提供優(yōu)秀的對象存儲、塊存儲和文件
    的頭像 發(fā)表于 07-15 13:44 ?1608次閱讀
    基于DPU的<b class='flag-5'>Ceph</b><b class='flag-5'>存儲</b>解決方案

    基于WDS的保險公司極速分布式存儲建設(shè)高速混合云方案

    基于WDS的保險公司極速分布式存儲建設(shè)高速混合云方案
    的頭像 發(fā)表于 07-08 09:52 ?537次閱讀
    基于WDS的保險公司極速<b class='flag-5'>分布式</b><b class='flag-5'>存儲</b>建設(shè)高速混合云方案

    黑龍江電力高性能WDS分布式存儲系統(tǒng)解決方案

    黑龍江電力高性能WDS分布式存儲系統(tǒng)解決方案
    的頭像 發(fā)表于 07-01 09:54 ?596次閱讀
    黑龍江電力高性能WDS<b class='flag-5'>分布式</b><b class='flag-5'>存儲</b>系統(tǒng)解決方案

    面向企業(yè)關(guān)鍵業(yè)務(wù)場景的分布式存儲軟件ExponTech WDS

    面向企業(yè)關(guān)鍵業(yè)務(wù)場景的分布式存儲軟件ExponTech WDS
    的頭像 發(fā)表于 06-05 09:41 ?517次閱讀
    面向企業(yè)關(guān)鍵業(yè)務(wù)場景的<b class='flag-5'>分布式</b><b class='flag-5'>存儲</b>軟件ExponTech WDS