當前位置:首頁 » 存儲配置 » 存儲池集群

存儲池集群

發布時間: 2023-11-11 13:11:41

Ⅰ ceph分布式存儲-常見 PG 故障處理

創建一個新集群後,PG 的狀態一直處於 active , active + remapped 或 active + degraded 狀態, 而無法達到 active + clean 狀態 ,那很可能是你的配置有問題。

你可穗亮能需要檢查下集群中有關 Pool 、 PG 和 CRUSH 的配置項,做以適當的調整。

一般來說,你的集群中需要多於 1 個 OSD,並且存儲池的 size 要大於 1 副本。

有時候,我們需要搭建一個單節點的 Ceph 實驗環境。此時,在開始創建 monitor 和 OSD 之前,你需要把 Ceph 配置文件中的 osd crush chooseleaf type 選項從默認值 1 (表示 host 或 node )修改為 0 (表示 osd )。這樣做是告訴 Ceph 允許把數據的不同副老族漏本分布到同一 host 的 OSDs 上。

如果你已經啟動了 2 個 OSD,它們都處於 up 和 in 的狀態,但 PG 仍未達到 active + clean 狀態,那可能是給 osd pool default size 設置了一個大於 2 的值。

如果你想要在 active + degraded 狀態( 2 副本)操作你的集群,可以設置 osd pool default min size 為 2 ,這樣你就可以對處於 active + degraded 的對象寫入數據。然後你還可以把 osd pool default size 的值改為 2 ,這樣集群就可以達到 active + clean 狀態了。

另外,修改參數 osd pool default size/min_size 後,只會對後面新建的 pool 起作用。如果想修改已存在的 pool 的 size/min_size ,可用下面的命令:

注意: 你可以在運行時修改參數值。如果是在 Ceph 配置文件中進行的修改,你可能需要重啟集群。

如果你設置了 osd pool default size 的值為 1 ,那你就僅有對象的單份拷貝。OSD 依賴於其他 OSD 告訴自己應該保存哪些對象。如果第一個 OSD 持有對象的拷貝,並且沒有第二份拷貝,那麼也就沒有第二個 OSD 去告訴第一個 OSD 它應該保管那份拷貝。對於每一個映射到第一個 OSD 上的 PG (參考 ceph pg mp 的輸出),你可以強制第一個 OSD 關注它應該保存的 PGs :

PG 達不到 clean 狀態的另一個可能的原因就是集群的 CRUSH Map 有錯誤,導致 PG 不能映射到正確的地方。

有失敗發生後,PG 會進入「degraded」(降級)或「peering」(連接建立中)狀態,這種情況時有發生。通常這些狀態意味著正常的失敗恢復正在進行。然而,如果一個 PG 長時間處於這些狀態中的某個,就意味著有更大的問題。因此 monitor 在 PG 卡 ( stuck ) 在非最優狀態時會告警。我們具體檢查:

你可以用下列命令顯式地列出卡住的 PGs:

卡在 stale 狀態的 PG 通過重啟 ceph-osd 進程通常可以修復;卡在 inactive 狀態的 PG 通常是互聯問題(參見 PG 掛了 —— 互聯失敗 );卡在 unclean 狀態的 PG 通常是由於某些原因阻止了恢復的完成,像未找到的對象(參見 未找到的對象 )。

在某些情況下, ceph-osd 互聯 進程會遇到問題,阻值 PG 達到活躍、可用的狀態。例如, ceph health 也許顯示:

可以查詢到 PG 為何被標記為 down :

recovery_state 段告訴我們互聯過程因 ceph-osd 進程掛了而被阻塞,本例是 osd.1 掛了,啟動這個進程應該就可以恢復。

或者,如果 osd.1 發生了災難性的失敗(如硬碟損壞),我們可侍爛以告訴集群它丟失( lost )了,讓集群盡力完成副本拷貝。

重要: 集群不能保證其它數據副本是一致且最新的,就會很危險!

讓 Ceph 無論如何都繼續:

恢復將繼續進行。

某幾種失敗相組合,可能導致 Ceph 抱怨有找不到( unfound )的對象:

這意味著存儲集群知道一些對象(或者存在對象的較新副本)存在,卻沒有找到它們的副本。下例展示了這種情況是如何發生的,一個 PG 的數據存儲在 ceph-osd 1 和 2 上:

這時, 1 知道這些對象存在,但是活著的 ceph-osd 都沒有這些副本。這種情況下,讀寫這些對象的 IO 就會被阻塞,集群只能指望 down 掉的節點盡早恢復。這樣處理是假設比直接給用戶返回一個 IO 錯誤要好一些。

首先,你應該確認哪些對象找不到了:

如果在一次查詢里列出的對象太多, more 這個欄位將為 true ,你就可以查詢更多。

其次,你可以找出哪些 OSD 上探測到、或可能包含數據:

本例中,集群知道 osd.1 可能有數據,但它掛了( down )。所有可能的狀態有:

有時候集群要花一些時間來查詢可能的位置。

還有一種可能性,對象存在於其它位置卻未被列出。例如,集群里的一個 ceph-osd 停止且被剔出集群,然後集群完全恢復了;後來一系列的失敗導致了未找到的對象,它也不會覺得早已死亡的 ceph-osd 上仍可能包含這些對象。(這種情況幾乎不太可能發生)。

如果所有可能的位置都查詢過了但仍有對象丟失,那就得放棄丟失的對象了。這仍可能是罕見的失敗組合導致的,集群在寫操作恢復後,未能得知寫入是否已執行。以下命令把未找到的( unfound )對象標記為丟失( lost )。

上述最後一個參數告訴集群應如何處理丟失的對象。

擁有 PG 拷貝的 OSD 可能會全部失敗,這種情況下,那一部分的對象存儲不可用, monitor 也就不會收到那些 PG 的狀態更新了。為檢測這種情況,monitor 會把任何主 OSD 失敗的 PG 標記為 stale (不新鮮),例如:

可以找出哪些 PG 是 stale 狀態,和存儲這些歸置組的最新 OSD ,命令如下:

如果想使 PG 2.5 重新上線,例如,上面的輸出告訴我們它最後由 osd.0 和 osd.2 管理,重啟這些 ceph-osd 將恢復之(可以假定還有其它的很多 PG 也會進行恢復 )。

如果你的集群有很多節點,但只有其中幾個接收數據, 檢查 下存儲池裡的 PG 數量。因為 PG 是映射到多個 OSD 的,較少的 PG 將不能均衡地分布於整個集群。試著創建個新存儲池,設置 PG 數量是 OSD 數量的若干倍。更詳細的信息可以參考 Ceph 官方文檔 —— Placement Groups 。

如果你的集群已啟動,但一些 OSD 沒起來,導致不能寫入數據,確認下運行的 OSD 數量滿足 PG 要求的最低 OSD 數。如果不能滿足, Ceph 就不會允許你寫入數據,因為 Ceph 不能保證復制能如願進行。這個最低 OSD 個數是由參數 osd pool default min size 限定的。

如果收到 active + clean + inconsistent 這樣的狀態,很可能是由於在對 PG 做擦洗( scrubbing )時發生了錯誤。如果是由於磁碟錯誤導致的不一致,請檢查磁碟,如果磁碟有損壞,可能需要將這個磁碟對應的 OSD 踢出集群,然後進行更換。生產環境中遇到過不一致的問題,就是由於磁碟壞道導致的。

當集群中出現 PG 不一致的問題時,執行 ceph -s 命令會出現下面的信息:

1、查找處於 inconsistent 狀態的問題 PG :

這個有問題的 PG 分布在 osd.1 、 osd.2 和 osd.0 上,其中 osd.1 是主 OSD。

2、去主 OSD( osd.1 )的日誌中查找不一致的具體對象 。

從日誌中可以知道,是 rbd_data.1349f035c101d9.0000000000000001 這個對象的屬性 _ 丟失了,所以在 scrub 的過程中產生了 error 。

3、執行 ceph pg repair 命令修復問題 PG 。

4、檢查 Ceph 集群是否恢復到 HEALTH_OK 狀態。

osd.1 的日誌里也提示修復成功:

如果經過前面的步驟,Ceph 仍沒有達到 HEALTH_OK 狀態,可以嘗試用下面這種方式進行修復。

1、停掉不一致的 object 所屬的 osd 。

2、刷新該 osd 的日誌。

3、將不一致的 object 移除。

4、重新啟動該 osd 。

5、重新執行修復命令。

6、檢查 Ceph 集群是否恢復到 HEALTH_OK 狀態。

有時候,我們在 ceph -s 的輸出中可以看到如下的告警信息:

這是因為集群 OSD 數量較少,測試過程中建立了多個存儲池,每個存儲池都要建立一些 PGs 。而目前 Ceph 配置的默認值是每 OSD 上最多有 300 個 PGs 。在測試環境中,為了快速解決這個問題,可以調大集群的關於此選項的告警閥值。方法如下:

在 monitor 節點的 ceph.conf 配置文件中添加:

然後重啟 monitor 進程。

或者直接用 tell 命令在運行時更改參數的值而不用重啟服務:

而另一種情況, too few PGs per OSD (16 < min 20) 這樣的告警信息則往往出現在集群剛剛建立起來,除了默認的 rbd 存儲池,還沒建立自己的存儲池,再加上 OSD 個數較多,就會出現這個提示信息。這通常不是什麼問題,也無需修改配置項,在建立了自己的存儲池後,這個告警信息就會消失。

Ⅱ 分布式存儲是什麼

什麼是分布式存儲系統?
就是將數據分散存儲在多 *** 立的設備上
分布式存儲是什麼?選擇什麼樣的分布式存儲更好?
分布式存儲系統,是將數據分散存儲在多 *** 立的設備上。傳統的網路存儲系統採用集中的存儲伺服器存放所有數據,存儲伺服器成為系統性能的瓶頸,也是可靠性和安全性的焦點,不能滿足大規模存儲應用的需要。分布式網路存儲系統採用可擴展的系統結構,利用多台存儲伺服器分擔存儲負荷,利用位置伺服器定位存儲信息,它不但提高了系統的可靠性、可用性和存取效率,還易於擴展。

聯想超融合ThinkCloud AIO超融合雲一體機是聯想針對企業級用戶推出的核心產品。ThinkCloud AIO超融合雲一體機實現了對雲管理平台、計算、網路和存儲系統的無縫集成,構建了雲計算基礎設施即服務的一站式解決方案,為用戶提供了一個高度簡化的一站式基礎設施雲平台。這不僅使得業務部署上線從周縮短到天,而且與企業應用軟體、中間件及資料庫軟體完全解耦,能夠有效提升企業IT基礎設施運維管理的效率和關鍵應用的性能
什麼是分布式數據存儲
定義:

分布式資料庫是指利用高速計算機網路將物理上分散的多個數據存儲單元連接起來組成一個邏輯上統一的資料庫。分布式資料庫的基本思想是將原來集中式資料庫中的數據分散存儲到多個通過網路連接的數據存儲節點上,以獲取更大的存儲容量和更高的並發訪問量。近年來,隨著數據量的高速增長,分布式資料庫技術也得到了快速的發展,傳統的關系型資料庫開始從集中式模型向分布式架構發展,基於關系型的分布式資料庫在保留了傳統資料庫的數據模型和基本特徵下,從集中式存儲走向分布式存儲,從集中式計算走向分布式計算。

特點:

1.高可擴展性:分布式資料庫必須具有高可擴展性,能夠動態地增添存儲節點以實現存儲容量的線性擴展。

2 高並發性:分布式資料庫必須及時響應大規模用戶的讀/寫請求,能對海量數據進行隨機讀/寫。

3. 高可用性:分布式資料庫必須提供容錯機制,能夠實現對數據的冗餘備份,保證數據和服務的高度可靠性。
分布式塊存儲和 分布式文件存儲有是什麼區別
分布式文件系統(dfs)和分布式資料庫都支持存入,取出和刪除。但是分布式文件系統比較暴力,可以當做key/value的存取。分布式資料庫涉及精煉的數據,傳統的分布式關系型資料庫會定義數據元組的schema,存入取出刪除的粒度較小。

分布式文件系統現在比較出名的有GFS(未開源),HDFS(Hadoop distributed file system)。分布式資料庫現在出名的有Hbase,oceanbase。其中Hbase是基於HDFS,而oceanbase是自己內部實現的分布式文件系統,在此也可以說分布式資料庫以分布式文件系統做基礎存儲。
統一存儲和融合存儲以及分布式存儲的區別
統一存儲具體概念:

統一存儲,實質上是一個可以支持基於文件的網路附加存儲(NAS)以及基於數據塊的SAN的網路化的存儲架構。由於其支持不同的存儲協議為主機系統提供數據存儲,因此也被稱為多協議存儲。

基本簡介:

統一存儲(有時也稱網路統一存儲或者NUS)是一個能在單一設備上運行和管理文件和應用程序的存儲系統。為此,統一存儲系統在一個單一存儲平台上整合基於文件和基於塊的訪問,支持基於光纖通道的SAN、基於IP的SAN(iSCSI)和NAS(網路附加存儲)。

工作方式:

既然是一個集中化的磁碟陣列,那麼就支持主機系統通過IP網路進行文件級別的數據訪問,或通過光纖協議在SAN網路進行塊級別的數據訪問。同樣,iSCSI亦是一種非常通用的IP協議,只是其提供塊級別的數據訪問。這種磁碟陣列配置多埠的存儲控制器和一個管理介面,允許存儲管理員按需創建存儲池或空間,並將其提供給不同訪問類型的主機系統。最通常的協議一般都包括了NAS和FC,或iSCSI和FC。當然,也可以同時支持上述三種協議的,不過一般的存儲管理員都會選FC或iSCSI中的一種,它們都提供塊級別的訪問方式,和文件級別的訪問方式(NAS方式)組成統一存儲。
分布式存儲支持多節點,節點是什麼,一個磁碟還是一個主控?
一個節點是存儲節點的簡稱,存儲節點一般是一個存儲伺服器(必然帶控制器),伺服器之間通過高速網路互連。

現在越來越多的存儲伺服器使用arm CPU+磁碟陣列節省能耗,提高「容量能耗比」。
分布式文件系統有哪些主要的類別?
分布式存儲在大數據、雲計算、虛擬化場景都有勇武之地,在大部分場景還至關重要。munity.emc/message/655951 下面簡要介紹*nix平台下分布式文件系統的發展歷史:

1、單機文件系統

用於操作系統和應用程序的本地存儲。

2、網路文件系統(簡稱:NAS)

基於現有乙太網架構,實現不同伺服器之間傳統文件系統數據共享。

3、集群文件系統

在共享存儲基礎上,通過集群鎖,實現不同伺服器能夠共用一個傳統文件系統。

4、分布式文件系統

在傳統文件系統上,通過額外模塊實現數據跨伺服器分布,並且自身集成raid保護功能,可以保證多台伺服器同時訪問、修改同一個文件系統。性能優越,擴展性很好,成本低廉。
分布式存儲都有哪些,並闡述其基本實現原理
神州雲科 DCN NCS DFS2000(簡稱DFS2000)系列是面向大數據的存儲系統,採用分布式架構,真正的分布式、全對稱群集體系結構,將模塊化存儲節點與數據和存儲管理軟體相結合,跨節點的客戶端連接負載均衡,自動平衡容量和性能,優化集群資源,3-144節點無縫擴展,容量、性能歲節點增加而線性增長,在 60 秒鍾內添加一個節點以擴展性能和容量。
什麼是Hadoop分布式文件系統 10分
分布式文件系統(Distributed File System)是指文件系統管理的物理存儲資源不一定直接連接在本地節點上,而是通浮計算機網路與節點相連。

Hadoop是Apache軟體基金會所研發的開放源碼並行運算編程工具和分散式檔案系統,與MapRece和Google檔案系統的概念類似。

HDFS(Hadoop 分布式文件系統)是其中的一部分。
分布式文件存儲系統採用什麼方式
一。分布式Session的幾種實現方式1.基於資料庫的Session共享2.基於NFS共享文件系統3.基於memcached 的session,如何保證 memcached 本身的高可用性?4. 基於resin/tomcat web容器本身的session復制機制5. 基於TT/Redis 或 jbosscache 進行 session 共享。6. 基於cookie 進行session共享或者是:一、Session Replication 方式管理 (即session復制) 簡介:將一台機器上的Session數據廣播復制到集群中其餘機器上 使用場景:機器較少,網路流量較小 優點:實現簡單、配置較少、當網路中有機器Down掉時不影響用戶訪問 缺點:廣播式復制到其餘機器有一定廷時,帶來一定網路開銷二、Session Sticky 方式管理 簡介:即粘性Session、當用戶訪問集群中某台機器後,強制指定後續所有請求均落到此機器上 使用場景:機器數適中、對穩定性要求不是非常苛刻 優點:實現簡單、配置方便、沒有額外網路開銷 缺點:網路中有機器Down掉時、用戶Session會丟失、容易造成單點故障三、緩存集中式管理 簡介:將Session存入分布式緩存集群中的某台機器上,當用戶訪問不同節點時先從緩存中拿Session信息 使用場景:集群中機器數多、網路環境復雜優點:可靠性好 缺點:實現復雜、穩定性依賴於緩存的穩定性、Session信息放入緩存時要有合理的策略寫入二。Session和Cookie的區別和聯系以及Session的實現原理1、session保存在伺服器,客戶端不知道其中的信息;cookie保存在客戶端,伺服器能夠知道其中的信息。 2、session中保存的是對象,cookie中保存的是字元串。 3、session不能區分路徑,同一個用戶在訪問一個網站期間,所有的session在任何一個地方都可以訪問到。而cookie中如果設置了路徑參數,那麼同一個網站中不同路徑下的cookie互相是訪問不到的。 4、session需要藉助cookie才能正常 工作 。如果客戶端完全禁止cookie,session將失效。是無狀態的協議,客戶每次讀取web頁面時,伺服器都打開新的會話......

Ⅲ 分布式存儲是什麼

分布式存儲系統,是將數據分散存儲在多台獨立的設備上。傳統的網路存儲系統採用集中的存儲伺服器存放所有數據,存儲伺服器成為系統性能的瓶頸,也是可靠性和安全性的焦點,不能滿足大規模存儲應用的需要。分布式網路存儲系統採用可擴展的系統結構,利用多台存儲伺服器分擔存儲負荷,利用位置伺服器定位存儲信息,它不但提高了系統的可靠性、可用性和存取效率,還易於擴展。
分布式和集中式存儲
集中存儲的優缺點是,物理介質集中布放;視頻流上傳到中心對機房環境要求高,要求機房空間大,承重、空調等都是需要考慮的問題。

分布存儲,集中管理的優缺點是,物理介質分布到不同的地理位置;視頻流就近上傳,對骨幹網帶寬沒有什麼要求;可採用多套低端的小容量的存儲設備分布部署,設備價格和維護成本較低;小容量設備分布部署,對機房環境要求低。

鏈喬教育在線旗下學碩創新區塊鏈技術工作站是中國教育部學校規劃建設發展中心開展的「智慧學習工場2020-學碩創新工作站 」唯一獲準的「區塊鏈技術專業」試點工作站。專業站立足為學生提供多樣化成長路徑,推進專業學位研究生產學研結合培養模式改革,構建應用型、復合型人才培養體系。

Ⅳ 雲存儲的核心技術:虛擬化存儲,究竟虛擬是怎樣實現的

虛擬化改變了計算機使用存儲的方式。就像物理機器抽象成虛擬機(VM:Virtual Machine)一樣,物理存儲設備也被抽象成虛擬磁碟(Virtual Disk)。今天我們就來聊聊虛擬化存儲(Storage Virtualization)技術,究竟虛擬磁碟是怎樣實現的?
虛擬磁碟的實現
我們知道,伺服器擴展存儲的手段主要有直連存儲(DAS)、存儲區域網路(SAN)和網路附加存儲(NAS)這三種類型。那麼哪種存儲類型可以用來實現虛擬磁碟呢?
在虛擬化環境中,類似VMWare這樣的虛擬機管理程序hypervisor,要同時給很多VM分配存儲空間。這個過程中,我們需要先把物理存儲資源重新劃分成虛擬磁碟,然後再分配給VM。
顯然我們不能用DAS方式把物理磁碟直連到VM上,如果這樣,需要的物理磁碟就太多了。SAN是以邏輯單元(LUN:Logic Unit)的形式提供存儲資源,但是虛擬環境中VM的數量是很大的,而且倫的數量不足以支持這么多虛擬磁碟。
更重要的是,虛擬磁碟是為大量VM共享的,由於VM需要隨時創建、刪除或遷移,所以需要在遷移VM時共享存儲空間,只有原始數據不會丟失。DAS還是SAN,都不適合共享存儲。

考慮到資源分配以及共享的問題,虛擬機管理程序以NAS的方式實現虛擬磁碟。VMware通常使用VMFS(虛擬機文件系統)或NFS協議實現虛擬磁碟,VMFS文件系統是專門針對虛擬機環境協議。

每一個虛擬機的數據實際上是一堆文件,及最重要的文件的虛擬磁碟文件(VMDK文件),也有交換分區文件(VSWP文件,等價交換),非易失性存儲器(NVRAM的文件相當於BIOS),等等。每個VM對虛擬磁碟的IO操作實際上是對虛擬磁碟文件的讀寫操作。
設計、施工、和虛擬伺服器環境和優化,允許多個虛擬機訪問集成的集群存儲池,從而大大提高了資源的利用率。使用和實現資源共享,管理員可以直接從更高的效率和存儲利用率中獲益。
那麼我們如何在雲計算中使用虛擬磁碟呢?
實例存儲
最主要的一種使用虛擬磁碟的方式就是實例存儲,每個VM都是虛擬機的一個實例,虛擬機管理程序在每個實例中提供一個模擬硬體環境,它包括CPU、內存和磁碟。這樣,虛擬磁碟就是虛擬機實例的一部分,就像物質世界。刪除VM後,虛擬磁碟也將被刪除。
在這個實例存儲模型中,虛擬磁碟與虛擬機之間的存儲關系,事實上,它是DAS存儲。但是虛擬磁碟的底層實現,我們說,它是以NAS的方式實現的。虛擬機管理程序的作用是存儲VM層的存儲模型,這是從實施協議分離(VMFS或NFS)的虛擬機的低層。

VMFS協議實現了存儲資源的虛擬化,再分配各VMs
卷存儲
實例存儲有它的限制,開發人員通常希望分離實例數據,例如OS和安裝的一些伺服器應用程序和用戶數據,這樣重建VM的時候可以保留用戶的數據。
這個需求衍生出另外一種存儲模型:卷存儲。卷是存儲的主要單元,相當於虛擬磁碟分區。它不是虛擬機實例的一部分,它可以被認為是虛擬機的外部存儲設備。
該卷可以從一個VM卸載,然後附加到另一個VM。通過這種方式,我們實現了實例數據與用戶數據的分離。OpenStack的煤渣是一個體積存儲的實現。
除了實例存儲和卷存儲之外,最後我們還提到另一種特殊的虛擬存儲:對象存儲。
對象存儲
很多雲應用需要在不同的VM之間共享數據,它常常需要跨越多個數據中心,而對象存儲可以解決這個問題。在前一篇文章中的雲計算IaaS管理平台的基本功能是什麼?》中曾經提到過對象存儲。
在對象存儲模型中,數據存儲在存儲段(bucket)中,桶也可以被稱為「水桶」,因為它字面意思。我們可以用硬碟來類推,對象像一個文件,而存儲段就像一個文件夾(或目錄)。可以通過統一資源標識符(URI:統一資源標識符)找到對象和存儲段。
對象存儲的核心設計思想實際上是虛擬化,它是文件的物理存儲位置,如卷、目錄、磁碟等,虛擬化是木桶,它將文件虛擬化為對象。對於應用層,簡化了對數據訪問的訪問,屏蔽了底層存儲技術的異構性和復雜性。

對象存儲模型
NAS與對象存儲各有所長
當然你也許會問,NAS存儲技術也是一個可以解決數據共享的問題嗎?由於對象存儲的大小和成本優勢,許多雲環境使用對象存儲而不是NAS。
因為對象存儲將跨多個節點傳播,最新數據並不總是可用的 因此,對象存儲的數據一致性不強。如果有強一致性的要求,然後你可以使用NAS。目前,在雲計算環境中,NAS和對象存儲是共存的。
和NAS一樣,對象存儲也是軟體體系結構,而不是硬體體系結構。應用程序通過REST API直接訪問對象存儲。公共對象存儲包括:Amazon S3和OpenStack的Swift。
結語
在實際的雲平台應用中,我們需要根據自己的實際情況來合理運用不同的虛擬化存儲技術。
對於非結構化的靜態數據文件,如音視頻、圖片等,我們一般使用對象存儲。
對於系統鏡像以及應用程序,我們需要使用雲主機實例存儲或者卷存儲。
對於應用產生的動態數據,我們一般還需要利用雲資料庫來對數據進行管理。

Ⅳ H3C分布存儲池是伺服器嗎

是。H3C分布存儲池是伺服器,H3C以存儲伺服器為基礎構建單元,把大量分散的存儲伺服器組成一個有機統一的存儲集群。這種架構為存儲系統的可靠性、可用性、自動運維、高性能等方面提供了有力保證。

Ⅵ 分布式存儲最佳緩存比

作者:深入細節的 SmartX 一線技術團隊

近日,VMware 發布了 vSAN 8,對存儲架構進行了重大更新。其中最主要的變化,即引入了新的 Express Storage Architecture(ESA)架構:用「存儲池」替代了原存儲架構(OSA)中的「磁碟組」,並不再需要專用 SSD 承擔緩存加速功能,一定程度上避免了 8.0 之前版本中的專用緩存檔利用率低、易發生緩存擊穿等問題。
而值得一提的是,在 vSAN 大版本更新之前,SmartX 即通過統一緩存空間和智能冷熱數據管理優化了分布式存儲緩存機制,有效規避了上述問題。本文將通過重點解讀 vSAN(以 vSAN 7 為例)和 SmartX 分布式塊存儲組件 ZBS* 緩存機制的原理,並測試對比兩種緩存機制下虛擬機性能表現,讓讀者更好地了解兩種技術實現機制的區別對業務可能帶來的實際影響。

* ZBS 內置於 SmartX 超融合軟體 SMTX OS,可與 SmartX 原生虛擬化 ELF 搭配提供服務。

本文重點
vSAN 7 採用劃分讀寫緩存空間的機制,將緩存磁碟按照容量佔比劃分為寫緩沖區(30%)和讀緩存區(70%)。這種方式可能出現緩存利用率低、在訪問數據量過大時導致緩存擊穿,進而引起性能下降等問題。
ZBS 採用統一緩存空間的機制,並通過 2 級 LRU 演算法對冷熱數據進行管理,在充分利用緩存容量的同時避免了因訪問量激增導致虛擬機性能下降的情況。
本文基於相同的硬體配置和 I/O 讀寫場景,分別測試 VMware 超融合(vSphere 虛擬化 + vSAN 分布式存儲)寫入 300 GB 數據、SMTX OS(ELF + ZBS)寫入 500 GB 數據時虛擬機的性能表現。結果顯示,vSAN 7 難以充分利用緩存介質,發生緩存擊穿,導致存儲性能下降;而 SMTX OS 即便在寫入更多數據的情況下也未發生緩存擊穿,虛擬機性能保持穩定。
場景問題
混閃配置是超融合或分布式存儲現階段的主流落地模式。混閃配置是指機器中的磁碟使用 SSD + HDD 混合組成,其中 SSD 磁碟作為數據緩存層,而 HDD 磁碟作為數據容量層。以該模式構建的分布式存儲池通過軟體演算法進行冷熱數據自動判斷,在提供高性能的同時,還可獲得較大的存儲容量,進而提升資源利用率,獲得相對全快閃記憶體儲更高的性價比。

在將 SSD 磁碟用作數據緩存層時,部分超融合產品會將緩存容量(Cache)劃分為讀和寫各自獨立的兩部分。例如,vSAN 7 及更早版本會將每個磁碟組(Disk Group)中的緩存磁碟,按照容量佔比劃分為寫緩沖區(30%)和讀緩存區(70%),當讀取數據未命中緩存或者寫緩存已滿,將會直接從容量層進行讀寫。

Ⅶ 雲存儲到底有什麼好處

雲儲存的好處:

1、硬體冗餘
2、自動的故障切換
3、存儲設備升級不會導致服務中斷
4、容量分配不受物理硬碟限制
5、節省電力
6、及時提供容量的擴展
7、海量並行擴容
8、統一的對外名稱
9、負載均衡
10、容易管理

Ⅷ 什麼是集群存儲

雲存儲是在雲計算(cloud computing)概念上延伸和發展出來的一個新的概念,是指通過集
群應用、網格技術或分布式文機房集中監控系統件系統等功能,將網路中大量各種不同類
型的存儲設備通過應用軟體集合起來協同工作,共同對外提供數據存儲和業務訪問功能的
一個系統。當雲計算系統運算和處理的核心是大量數據的存儲和管理時,雲計算系統中就
需要配置大量的存儲設備,那麼雲計算系統就轉變成為一個雲存儲系統,所以雲存儲是一
個以數據存儲和管理為核心的雲計算系統。他們基於虛擬化技術和集群架構,具有強大的
橫向擴展能力。雲存儲設備橫向擴展的方式讓存儲系統具有了無限擴展的能力,它能夠實
現控制器與硬碟的同時擴展,也就是性能與容量可以同時實現線性擴展。

集群存儲是通過將數據分布到集群中各節點的存儲方式,提供單一的使用介面與界面,使
用戶可以方便地對所有數據進行統一使用與管理。集群中所有磁碟設備整合到單一的共享
存儲池中提供給前端的應用伺服器,極大提高了磁碟利用率,可以為非結構化數據提供具
備極高IO帶寬和靈活可擴展性的存儲解決方案。

熱點內容
wow刷碎片腳本 發布:2024-11-29 15:58:24 瀏覽:589
明小子源碼 發布:2024-11-29 15:15:30 瀏覽:143
蘋果8plus什麼配置 發布:2024-11-29 14:16:36 瀏覽:677
androidmvp結構 發布:2024-11-29 14:16:34 瀏覽:535
androidsqlite命令 發布:2024-11-29 14:04:38 瀏覽:156
信用卡分期演算法 發布:2024-11-29 13:50:56 瀏覽:807
安卓手機dll文件為什麼打不開 發布:2024-11-29 13:40:49 瀏覽:1001
百分之五十石碳酸怎麼配置 發布:2024-11-29 13:38:56 瀏覽:972
我的世界伺服器如何裝資源包 發布:2024-11-29 13:25:48 瀏覽:21
mc伺服器的ip是什麼 發布:2024-11-29 13:23:33 瀏覽:568