存儲性能分析報告
⑴ 分布式存儲排名前十名有哪些
一、 Ceph
Ceph最早起源於Sage就讀博士期間的工作、成果於2004年發表,並隨後貢獻給開源社區。經過多年的發展之後,已得到眾多雲計算和存儲廠商的支持,成為應用最廣泛的開源分布式存儲平台。
二、 GFS
GFS是google的分布式文件存儲系統,是專為存儲海量搜索數據而設計的,2003年提出,是閉源的分布式文件系統。適用於大量的順序讀取和順序追加,如大文件的讀寫。注重大文件的持續穩定帶寬,而不是單次讀寫的延遲。
三、 HDFS
HDFS(Hadoop Distributed File System),是一個適合運行在通用硬體(commodity hardware)上的分布式文件系統,是Hadoop的核心子項目,是基於流數據模式訪問和處理超大文件的需求而開發的。該系統仿效了谷歌文件系統(GFS),是GFS的一個簡化和開源版本。
⑵ 硬碟的主要性能指標有哪幾種
硬碟的主要性能指標包括硬碟容量、硬碟速度、硬碟轉速、介面、緩存、硬碟單碟容量。具體如下:
1、第一個比較重要的性能指標就是單碟容量。由於電腦硬碟是有一個或者幾個碟片組成的,單碟容量越高,說明該廠家生產碟片的集成度很高,從側面也可以反映該廠家生產硬碟的能力很高。
⑶ 350萬IOPS:NVMe SSD RAID卡性能測試解析
本文深入解析了NVMe SSD RAID卡的性能表現,特別是通過Principled Technologies的報告《Accelerate I/O with NVMe drives on the new Dell EMC PowerEdge R650 server》進行了詳細分析。測試平台為3rd Xeon Scalable PowerEdge R650伺服器,搭載了最新的Broadcom SAS3916晶元的PERC 11 RAID卡,並使用了8塊企業級NVMe MU(混合用途)U.2 SSD,總容量達3.2TB。
測試結果顯示,該系統在RAID 10配置下實現了高達350萬IOPS的隨機讀性能,以及91萬IOPS的隨機寫性能,顯著優於上一代LSI 3108晶元的Dell H730P RAID卡。在RAID 5和6配置下,隨機讀IOPS也保持在350萬以上,而隨機寫性能分別為198,000 IOPS和186,000 IOPS,與RAID 10接近。
在混合隨機讀寫性能上,NVMe RAID卡在8KB粒度下達到了50萬至60萬IOPS,滿足了大多數單機應用需求。在順序讀寫方面,RAID 10的寫入帶寬高達5,908 MB/s,是上一代配置的近3倍,而RAID 5和6的順序讀寫帶寬也都超過了SATA RAID的3倍。
然而,盡管NVMe RAID卡在帶寬和IOPS方面表現出色,但在4KB隨機寫性能和延時上仍存在挑戰,主要原因是NAND快閃記憶體SSD的特性,其穩態寫入性能和延時普遍低於讀操作。盡管如此,與SATA RAID相比,NVMe RAID卡的表現仍然顯著提升。
測試報告強調了完整測試環境配置步驟和測試工具命令的重要性,以便確保結果的可復現性和客觀性。此外,報告還討論了NVMe RAID卡在實際應用中的性能限制,如RAID卡的緩存容量和功耗,與全快閃記憶體陣列(AFA)控制器的處理性能、緩存和功耗相比,仍有差距。然而,NVMe RAID卡在提升存儲性能方面取得了重大進展。
綜上所述,NVMe SSD RAID卡在性能測試中展示了顯著的提升,尤其是在IOPS和帶寬方面,這為伺服器和存儲系統的性能優化提供了有力支持。盡管仍有改進空間,但NVMe RAID卡無疑為當前和未來的存儲系統提供了強大的性能基礎。
⑷ 存儲性能和空間利用率哪個重要
最大限度地挖掘存儲系統的性能潛力是用戶永遠的追求,但是,面對眾多性能優化技術,還必須考慮到底是性能重要還是空間利用率重要。
在當前經濟形勢低迷的大背景下,挖掘現有存儲系統的性能潛力成為用戶的必然選擇,不過追求性能只是一個方面。
看到的現象是大多數存儲系統的空間利用率還不到50%,而且存儲控制器的處理能力也只用到一小部分,這些都是讓用戶不可接受的事實。
在數據中心應用領域,通過伺服器整合以及虛擬化技術,物理伺服器的資源已經被最大化的利用起來,與此相反的是,存儲效率低下的問題卻成為用戶的痛點。
若要實現伺服器虛擬化的高效率,存儲系統就必須跟得上,這是一個必要的前提,因此伺服器虛擬化應用推動著存儲技術向更高效的方向發展。
在虛擬化環境中,當前端伺服器數量不斷增加,後端存儲陣列的不足便暴露出來,尤其表現在缺乏細粒度的分配和調動空間資源的能力方面。
因此,如果用戶希望對數據中心進行高度整合,那麼伺服器虛擬化技術和高效的存儲技術二者缺一不可。
存儲效率是一個綜合性的指標,實現最佳的存儲效率意味著要在有效存儲空間以及可用處理資源兩方面都有出色表現,通常也是各產品之間相互競爭的重點。
StorageIO高級分析師GregSchulz說,「為了達到應用所需的IOPS能力,有些存儲系統被設計得很大,通過大量磁碟的並發來提升IOPS,可是空間利用率卻非常低,反之,追求空間利用率的最大化往往需要藉助存儲精簡技術,比如壓縮和重復數據刪除等等,但是這些功能會對系統性能帶來負面的影響「。
因此,達成高效的存儲就需要在容量和性能之間尋找一個平衡點,根據應用需求的不同,對容量、處理能力、性能以及成本進行控制和優化。
保證存儲效率有哪些基本條件優化存儲系統的性能,本質上就是要盡可能地提高存儲處理資源的利用率,同時盡量消除系統的瓶頸或阻塞。
隨著處理資源利用率的增加,剩餘的處理資源以及響應額外處理請求的能力相應的就會降低。
而且如果緩沖區太小,那麼系統達到性能上限(瓶頸)的可能性就非常大。
舉個例子來說,一個平均處理資源利用率在50%的磁碟陣列不太可能觸及性能上限(瓶頸),而對於一個利用率達到80%的系統來說,這個可能性就要大得多。
高效存儲技術及其對性能、容量和成本的影響由存儲廠商或第三方公司提供的內嵌在存儲系統內部或在外部附加的運行報告、監控以及存儲分析功能是十分重要的,它們可以幫助用戶更好的了解系統的運行情況,避免系統過度(過高)配置,並減少很多後期維護工作。
尤其是當用戶需要優化性能或者按需增加處理資源時,這些組件的作用就會體現的非常明顯。
對此,StorageIO高級分析師GregSchulz評價道:「無論是性能問題還是容量問題,好好利用存儲廠商或第三方公司提供的工具都是十分重要的。
」這些工具不僅能夠幫助用戶定位性能的問題,更重要的方面在於它們可以幫助用戶選擇出最恰當的解決方案。
衡量一套存儲系統的性能並不能依賴某個單一指標,而要考慮多種組合因素,它們每一項都對應用程序訪問數據的速度有所影響。
其中,IOPS、吞吐帶寬和訪問延遲這三項指標是最關鍵的。
不過,指標數據究竟是好是壞還要考慮應用環境的差異,包括工作負載的類型(隨機請求或者順序請求)、數據塊的大小、交易類型(讀或是寫),以及其他相關的能夠影響性能的因素都依賴於應用程序本身的特點。
比方說,如果是流媒體視頻應用,那麼大文件快速順序讀性能和大數據塊是最重要的;
而如果是虛擬化應用環境,那麼隨機讀性能通常是最主要的考察指標。
下面的部分,將縱覽那些可以優化性能並且提高存儲資源利用率的技術,這里沒有獨門秘籍,因為每一種方法都有其優點和缺點。
通過堆砌磁碟數量來提高性能磁碟驅動器是一種機械裝置,讀寫磁頭通過在高速旋轉碟片的內道和外道之間往復移動來尋找並讀寫數據。
即使是轉速最快的15000轉磁碟,其磁頭機械臂的重定位時間延遲都會有數毫秒之多,因此每個磁碟的IOPS值最多隻有幾百個,吞吐帶寬則局限在100MB/秒以內。
通過將數據分布在多個磁碟上,然後對多個磁碟同步進行讀寫訪問是一種常見的擴展性能的方法。
通過增加磁碟的個數,系統整體的IOPS和帶寬值也會等比例提升。
加之,有些存儲廠商還提供shortstr好ing這樣的可以縮短磁頭機械臂移動距離的技術。
此類技術可以將數據集中放置在磁碟碟片的外道區域,結果是磁頭移動的距離大大縮短,對數據訪問的性能具有十分明顯的提升作用。
可是,當通過利用大量的磁碟並發以及short-str好ing磁頭短距離移動技術達成既定的性能目標之後,會發現其代價是非常高昂的,此外,由於僅僅使用了碟片的外道空間,所以存儲的空間利用率會非常差。
早在SSD固態盤技術出現之前,利用大量的磁碟並發以及short-str好ing磁頭短距離移動技術來滿足應用的性能要求是最普遍的辦法,即使在今天,這種方案依然被大量使用,原因是SSD固態盤的成本太高,所以用戶依然青睞磁碟而不是SSD。
NatApp技術和戰略總監MikeRiley就說:「對於順序訪問大數據塊和大文件這樣的應用,使用磁碟通常性價比更高。
」RAID及wide-striping技術對效率的影響很多用戶容易忽視一點,即RAID和RAID級別其實都會對性能和容量產生影響。
通過改變RAID級別來提升存儲性能或者空間的利用率是一種很現實的選擇。
校驗盤的數量、條帶的大小、RAID組的尺寸以及RAID組內數據塊大小都會影響性能和容量。
RAID技術對性能和容量的影響都熟悉那些常見的RAID級別及其特點,但還有一些不常見的技術趨勢值得關注,這些都與討論的存儲效率有關。
首先,RAID組的尺寸會影響性能、可用性以及容量。
通常,大的RAID組包含的磁碟數量更多,速度也更快,但是,當出現磁碟故障後,大RAID組也需要更多的時間用來重建。
每隔幾年,磁碟的容量都會翻一番,其結果是RAID重建的時間也相應變的更長,在數據重建期間出現其他磁碟故障的風險也變得更大。
即使是帶有雙校驗機制,允許兩塊磁碟同時出現故障的RAID6也存在風險增加的問題,況且,RAID6對性能的影響還比較大。
有一個更好的辦法是完全打破傳統RAID組和私有校驗盤的概念,比如,NetApp的DynamicDiskPools(DDP)技術,該技術將數據、校驗信息以及閑置空間塊分散放置在一個磁碟池中,池中所有的磁碟會並發處理RAID重建工作。
另一個有代表性的產品是HP的3PAR存儲系統,3PAR採用了一種叫做widestriping的技術,將數據條塊化之後散布在一大堆磁碟上,同時磁碟自身的裸容量又細分成若干小的存儲塊(chunklet)。
3PAR的卷管理器將這些小的chunklet組織起來形成若干個micro-RAID(微型RAID組),每個微型RAID組都有自己的校驗塊。
對於每一個單獨的微型RAID組來說,其成員塊(chunklet)都分布在不同的磁碟上,而且chunklet的尺寸也很小,因此數據重建時對性能的沖擊和風險都是最小的。
固態存儲毫無疑問,SSD固態存儲的出現是一件劃時代的「大事兒「,對於存儲廠商來說,在優化性能和容量這兩個方面,SSD技術都是一種全新的選擇。
與傳統的磁碟技術相比,SSD固態盤在延遲指標方面有數量級上的優勢(微秒對毫秒),而在IOPS性能上,SSD的優勢甚至達到了多個數量級(10000以上對數百)。
Flash技術(更多的時候是磁碟與flash的結合)為存儲管理員提供了一種更具性價比的解決方案,不必像過去那樣,為了滿足應用對性能的高要求而不得不部署大批量的磁碟,然後再將數據分散在磁碟上並發處理。
SSD固態盤最佳的適用場景是大量數據的隨機讀操作,比如虛擬化hypervisor,但如果是大數據塊和大文件的連續訪問請求,SSD的優勢就沒有那麼明顯了。
EMC統一存儲部門負責產品管理與市場的高級副總裁EricHerzog說:「Flash的價格仍然10倍於最高端的磁碟,因此,用戶只能酌情使用,而且要用在刀刃上。
」目前,固態存儲有三種不同的使用方式:第一種方式,用SSD固態盤完全代替機械磁碟。
用SSD替換傳統的磁碟是最簡單的提升存儲系統性能的方法。
如果選擇這個方案,關鍵的一點是用戶要協同存儲廠商來驗證SSD固態盤的效果,並且遵循廠商提供的建議。
如果存儲系統自身的處理能力無法承載固態存儲的高性能,那麼SSD有可能會將整個系統拖垮。
因為,如果SSD的速度超出了存儲控制器的承受范圍,那麼很容易出現性能(I/O阻塞)問題,而且會越來越糟。
另一個問題涉及到數據移動的機制,即的數據在什麼時候、以何種方式遷移到固態存儲上,或從固態存儲上移走。
最簡單但也最不可取的方法是人工指定,比如通過手動設定將資料庫的日誌文件固定存放在SSD固態存儲空間,對於比較老的存儲系統來說,這也許是唯一的方式。
在這里推薦用戶使用那些自動化的數據分層移動技術,比如EMC的FAST(FullyAutomatedStorageTiering)。
第二種方式,用Flash(固態存儲晶元)作為存儲系統的緩存。
傳統意義上的DRAM高速緩存容量太小,因此可以用Flash作為DRAM的外圍擴展,而這種利用Flash的方式較之第一種可能更容易實現一些。
Flash緩存本身是系統架構的一個組成部分,即使容量再大,也是由存儲控制器直接管理。
而用Flash作緩存的設計也很容易解決數據分層的難題,根據一般的定義,最活躍的數據會一直放置在高速緩存里,而過期的數據則駐留在機械磁碟上。
與第一種方式比較,存儲系統里所有的數據都有可能藉助Flash高速緩存來提升訪問性能,而第一種方式下,只有存放在SSD固態盤中的數據才能獲得高性能。
初看起來,用Flash做高速緩存的方案幾乎沒有缺陷,可問題是只有新型的存儲系統才支持這種特性,而且是選件,因此這種模式的發展受到一定的制約。
與此相反,看到用Flash做大容量磁碟的高速緩存(而不是系統的高速緩存)反而成為更普遍的存儲架構設計選擇,因為它可以將高容量和高性能更好的融合。
IBM存儲軟體業務經理RonRiffe說:「在一套磁碟陣列中,只需要增加2-3%的固態存儲空間,幾乎就可以讓吞吐帶寬提高一倍。
」在伺服器中使用Flash存儲卡。
數據的位置離CPU和內存越近,存儲性能也就越好。
在伺服器中插入PCIeFlash存儲卡,比如Fusion-IO,就可以獲得最佳的存儲性能。
不太有利的一面是,內置的Flash存儲卡無法在多台伺服器之間共享,只有單台伺服器上的應用程序才能享受這一好處,而且價格非常昂貴。
盡管如此,仍然有兩個廠商對此比較熱衷,都希望將自己的存儲系統功能向伺服器內部擴展。
一個是NetApp,正在使其核心軟體DataOntap能夠在虛擬機hypervisor上運行;
另一個是EMC,推出的功能叫做VFCache(原名叫ProjectLightning)。
顯而易見,這兩家公司的目標是通過提供伺服器端的Flash存儲分級獲得高性能,而這種方式又能讓用戶的伺服器與提供的外部存儲系統無縫集成。
存儲加速裝置存儲加速裝置一般部署在伺服器和存儲系統之間,既可以提高存儲訪問性能,又可以提供附加的存儲功能服務,比如存儲虛擬化等等。
多數情況下,存儲加速裝置後端連接的都是用戶已有的異構存儲系統,包括各種各樣的型號和品牌。
異構環境的問題是當面臨存儲效率低下或者性能不佳的困擾時,分析與評估的過程就比較復雜。
然而,存儲加速裝置能夠幫助已有磁碟陣列改善性能,並將各種異構的存儲系統納入一個統一的存儲池,這不但可以提升整個存儲環境的整體性能、降低存儲成本,而且還可以延長已有存儲的服役時間。
最近由IBM發布的是此類產品的代表,它將IBM的存儲虛擬化軟體SVC(SANVolumeController)以及存儲分析和管理工具集成在一個單獨的產品中。
可以將各種異構的物理存儲陣列納入到一個虛擬存儲池中,在這個池之上創建的卷還支持自動精簡配置。
該裝置不但可以管理連接在其後的存儲陣列中的Flash固態存儲空間,而且自身內部也可以安裝Flash固態存儲組件。
通過實時存儲分析功能,能夠識別出I/O訪問頻繁的數據以及熱點區域,並能夠自動地將數據從磁碟遷移到Flash固態存儲上,反向亦然。
用戶可以藉助的這些功能大幅度的提高現有的異構混合存儲系統環境的性能和空間利用率。
與IBM類似的產品還有Alacritech和Avere,它們都是基於塊或基於文件的存儲加速設備。
日益增加的存儲空間利用率利用存儲精簡技術,可以最大化的利用起可用的磁碟空間,存儲精簡技術包括自動精簡配置、瘦克隆、壓縮以及重復數據刪除等等。
這些技術都有一個共同的目標,即最大程度的引用已經存在的數據塊,消除或避免存儲重復的數據。
然而存儲精簡技術對系統的性能稍有影響,所以對於用戶來說,只有在明確了性能影響程度並且能夠接受這種影響的前提下,才應該啟動重復數據刪除或數據壓縮的功能。
性能和容量:密不可分存儲系統的性能和空間利用率是緊密相關的一對參數,提升或改進其中的一個,往往會給另一個帶來負面的影響。
因此,只有好好的利用存儲分析和報表工具,才能了解存儲的真實性能表現,進而發現系統瓶頸並採取適當的補救措施,這是必要的前提。
總之,提高存儲效率的工作其實就是在性能需求和存儲成本之間不斷的尋找平衡。
⑸ linux常用性能命令
一般常用的都是用來分析伺服器資源的,如磁碟,內存,cpu,網路等,具體分享如下四個。
1. 性能分析之 iostat 命令
iostat命令顯示的是你的存儲系統的細節狀態。iostat顯示系統三種類型的報告:CPU利用率、設備使用報告和網路文件系統報告等是否正常,完全可以在用戶抱怨伺服器慢之前,通過這個命令發現系統I/O方面的問題。
2. 性能分析之 top 命令使用
top命令可以顯示系統中的進程信息。默認情況下,top會按照CPU使用率從高到低來顯示系統中的進程,並且每5秒刷新一次排行榜。當然,你也可以讓top按照PID、進程壽命、CPU耗時、內存消耗等維度對進程進行排序。(可以使用P和M快捷鍵,分別是按CPU利用率排序、按內存使用量排序)通過top命令,你可以很快地發現那些失去控制或不符合預期的進程。
3. 性能分析之 vmstat 命令使用
vmstat命令是Virtual Meomory Statistics(虛擬內存統計)的縮寫,是常見的Linux/Unix監控工具,可以展現給定時間間隔的伺服器的狀態值,包括伺服器的CPU使用率、內存使用、虛擬內存交換情況、IO讀寫情況。
4. 性能分析之 mpstat命令使用
mpstat是Multiprocessor Statistics的縮寫,是實時系統監控工具。其報告與CPU的一些統計信息,這些信息存放在/proc/stat文件中。在多CPU系統里,其不但能查看所有CPU的平均狀況信息,而且能夠查看特定CPU的信息。mpstat最大的特點是:可以查看多核cpu中每個計算核心的統計數據;而類似工具vmstat只能查看系統整體cpu情況。