存儲池ssd加速
❶ AMD有無類似intel 快速響應(即rst把ssd當做機械硬碟的緩存盤)的技術,沒有該怎麼代替
AMD StoreMI 技術
你提問的時候應該還沒推出,大概今年四五月才推出的新技術,簡單的說,就是把 固態+機械+內存,混合成一個分區,然後智能學習來加速。用最新銳龍處理器+4系列的主板。
採用 AMD X399 或400 系列晶元組的主板均支持 AMD StoreMI 技術
SSD 速度飛快、體積小巧,但價格昂貴;機械硬碟容量大、價格低,但速度比 SSD 慢得多。AMD StoreMI 技術將這兩種存儲器「融合」為一塊驅動器,並將經常訪問的數據自動移至 SSD。輕松盡享 SSD 的疾速響應和機械硬碟的超大容量和超高性價比。
AMD StoreMI 是一款面向電腦發燒友的強大工具,能夠減少載入/啟動時間、改善文件管理、加快系統響應速度。
如果你在硬碟中安裝了 Windows® 系統,但不想重新安裝來獲得 SSD 般的性能,StoreMI 可讓你得償所願。
如果你有一個跨多個硬碟的大型文件庫,並希望將其轉至一個盤符下,AMD StoreMI 可助你一臂之力。
或者,如果你希望硬碟中安裝的游戲以SSD 般的速度載入,StoreMI 可為你輕松實現。
當你向電腦添加更多、更快的硬碟時,AMD StoreMI 技術會自動為常用文件匹配較快的存儲器,從而帶來超高性能。還可以將多達 2GB 的內存用作末級高速緩存,實現超快的數據處理。
如果您的主板採用 AMD X399 或400 系列晶元組,可以下載免費的 AMD StoreMI 軟體。
如果你的 AM4 主板採用的是 300 系列晶元組,您仍然可以通過 AMD 專用的 Enmotus FuzeDrive 軟體(需額外付費)實現存儲加速。
更短的等待時間1
高容量機械硬碟非常適合存儲大型文件庫,但速度比 SSD慢得多。AMD StoreMI 技術可以讓這些文件以 SSD般的速度運行。只需為系統添加一個 SSD,剩下的都交給 StoreMI 即可輕松搞定。
加速你的操作系統
你是否在為電腦啟動速度或響應緩慢而感到苦惱?AMD StoreMI 技術可為你排憂解難。只需添加一個 SSD,StoreMI 便可自動讓電腦疾速、流暢運行。
超高性價比,無需專有硬體
不需要購買昂貴和專有硬體來加速存儲性能。AMD StoreMI 利用 SSD和 NVMe 等廣泛使用和經濟有效的技術,輕松加快現有存儲器的速度。
即插即用,設置輕松
無需重新安裝 Windows® 系統,即可輕松盡享 AMD StoreMI 技術帶來的眾多好處。只需為系統添加更快的存儲設備,StoreMI 便會將常用數據自動轉至較快的驅動器,帶來超高性能。
輕松管理大型文件庫
電腦發燒友通常會為文件庫配備很多大容量硬碟,但跨硬碟管理文件庫非常麻煩。AMD StoreMI 技術可將這些硬碟融合為一個大型存儲池,大幅簡化了文件庫的管理。
如果你的 AM4 主板採用的是 300 系列晶元組,您仍然可以通過 AMD 專用的 Enmotus FuzeDrive 軟體(需額外付費)實現存儲加速。
❷ 如何使用SSD解決桌面虛擬化的啟動風暴
不過支撐VDI的存儲環境需要仔細的規劃,以避免VDI啟動風暴的問題,即當大量的用戶同時登錄系統時所造成的系統反應非常緩慢。有許多方法可以解決這個問題,但最有效的方法是將數據巧妙的放置在固態硬碟(SSD)上。VDI啟動風暴的問題表現形式非常簡單。虛擬桌面工作負載是可預測的;它基於桌面用戶的工作時間,通常是每個工作日的上午9點到下午5點。相對於伺服器的工作負載而言,普通的一台虛擬桌面所產生的所有存儲I/O是相當低的,因此通常在一台物理主機上可以部署的虛擬桌面的密度比虛擬伺服器要大得多。相反,虛擬桌面的初始啟動則相當消耗資源,此時操作系統和應用需要從磁碟讀取大量的數據以載入和執行。啟動風暴發生在大量的虛擬桌面在短時間內同時啟動之時(例如,在上午8點到9點之間),由此引起的大量存儲I/O可以很輕易的將存儲系統淹沒。如果存儲系統不能很好的設計以處理如此密集的I/O負載,最終存儲系統將無法提供服務。當這種情況發生時,桌面用戶將會感覺到虛擬桌面極度緩慢,以至於幾乎無法使用。如果這種情況每天發生,那麼你可以確定你的用戶將會不停的抱怨,你的VDI項目將趨於失敗,你的用戶也會強烈要求重新使用他們的物理桌面。你必須竭盡全力避免這種情況發生,也即由於缺乏良好的設計而導致一項具有許多優點的技術解決方案,最終的實現效果卻非常之差。在VDI實施之後來改善缺乏良好設計的存儲系統是可能的,但相對於在之前做出正確的規劃,代價要高昂得多,例如也許你的系統由於無法升級以滿足需求,導致系統需要整個被替換掉。一旦用戶啟動系統,登錄和載入應用之後,存儲I/O通常將保持在一個比較低的水平。虛擬桌面在啟動時和啟動之後所產生的IOPS有著天壤之別,導致VDI環境下的存儲架構設計極具挑戰性。通常,運行Windows 7的虛擬桌面在啟動時會產生50到100個IOPS,一旦運行平穩,平均IOPS下降到5-10.因此,為了滿足由啟動風暴引起的I/O需求,你的存儲系統通常需要設計成能滿足這種最壞的情況。僅僅為滿足啟動風暴時的IOPS需求而設計的存儲架構將相當昂貴。通常,為增加存儲系統的IOPS處理能力,你需要增加更多的的物理磁碟,從而使負載可以分布在更多的磁碟之上。這意味著你將擁有大量超出你需求磁碟容量。設想,設計一條具有8車道的高速公路,僅僅只是為了處理每天1到2個小時的高峰期擁堵,而在餘下的時間里,僅僅兩條車道就足以應付。最終的結果,你將不得不維護一條極其昂貴的高速公路。使用SSD解決VDI啟動風暴問題為了平安度過啟動風暴,相對於裝備整個的存儲陣列來處理所需的IOPS,存在更好的解決方案。你可以通過增加兩條大容量快速車道來處理高峰期的車流,而不是建造一條8車道的高速公路。SSD相對於傳統的機械磁碟要快得多,傳統機械磁碟通常受限於磁碟轉速。一般而言,每分鍾15000轉的SAS磁碟最多可以處理的IOPS為180,而SSD可以處理大約5000個IOPS.當然,這種性能的提升也伴隨著極高的成本。如果用於虛擬桌面的存儲系統全部採用SSD磁碟,固然很好,但對於絕大多數用戶而言,高昂的成本將使他們望而卻步。不過使用少量的SSD磁碟來承載啟動風暴時所產生的大量I/O是非常經濟的。如此設計,你可以使用大量價格相對較低的SAS和 SATA磁碟來滿足磁碟容量的需求,同時少量的SSD磁碟來滿足處理高峰期I/O負載的性能需求。選項A: 將某些文件放在SSD上。這種解決方案有多種實現方式。第一種是將虛擬機的母版映像文件和副本放置SSD存儲池中。當在VDI中使用Linked Clones(在VMware View中)或Machine Creation Services(在XenDesktop中)時,母版映像文件作為只讀磁碟為所有桌面虛擬機所共享。它是所有部署的桌面操作系統的母盤,然後每個虛擬機將單獨保留一份可寫的快照以存放所有對於母盤的修改。當桌面虛擬機經歷啟動過程時,大部分的磁碟活動來自於母版映像,也就是大部分的操作系統文件和應用文件存放的地方。因此,將母版映像和副本存放在SSD存儲上可以消除啟動風暴。其它所有單獨的虛擬機快照磁碟可以存放在較低層級(SAS或SATA)的存儲上。選項B:使用SSD作為緩存層。另外一種解決啟動風暴的方法是將快速的SSD磁碟作為緩存層放置在由SAS和SATA組成的較慢存儲池的前端。飛康的NSS SAN Accelerator即是針對VMware View的這樣一種解決方案,NSS SAN Accelerator包含由SSD磁碟組成的硬體裝置,放置在主機和存儲設備之間。此硬體裝置作為緩存層,所有的存儲I/O都將通過它到達後端的存儲設備。緩存硬體裝置可以識別頻繁訪問的磁碟數據塊,並自動將其緩存,這樣這些數據塊將可以從快速的SSD磁碟讀取,而非從較慢的後端存儲。通過緩存一些共同的數據如虛擬機母版映像,它可以按需動態調整以滿足任何高I/O需求,從而消除啟動風暴。顯然,實現這些解決方案的最佳時機是在你的VDI項目的設計階段。如今,很多的存儲設備都具備存儲分層的功能,支持將不同性能特徵的磁碟放置在同一存儲池裡。它們也可以用來解決由啟動風暴引起的存儲 I/O瓶頸問題。通過加入由少量SSD磁碟組成的存儲池,你可以將虛擬機母版映像從較慢的存儲層轉移到SSD存儲層,以處理由啟動風暴引起的大量I/O.在現有的主機和存儲設備之間加入飛康的硬體裝置是一種簡便易行的手段,對已有的基礎架構的影響和改動也非常之小。SSD容量規劃當SSD作為存儲層實現以應對啟動風暴所引起的峰值I/O時,正確的容量規劃就顯得相當重要。為確定購買多少SSD磁碟,你必須計算出你的虛擬桌面系統所產生的最大I/O值。盡管你可以使用基於典型環境下的估算值,建議您最好使用性能分析工具測算出現有物理桌面系統的實際I/O,如使用Lakeside軟體公司的SysTrack VDI評測工具,因為每一個用戶的環境都不盡相同。將主機上承載的虛擬桌面數量-例如500,乘以桌面系統在啟動時產生的典型IOPS-例如60,就可以確定出所有桌面同時登錄時所產生的總體IOPS(500 x 60 = 30,000)。由於所有桌面不可能完全在同一時刻登錄,你可以將計算出的值稍微向下調整。不過估算多一些餘量總是更好一些。一旦確定了你的IOPS需求,你需要據此來規劃你的SSD存儲層。如果單塊的SSD可以處理5000個IOPS,6塊SSD則可以處理30000個IOPS.(注意這只是大致的估算。為了實現適合你特定環境的最佳方案,你必須對你的需求進行正確的評估,並和存儲廠商一起實現滿足你需求的SSD解決方案)預防和解決啟動風暴問題並不意味著非常昂貴或復雜,SSD提供了一種很好的解決方案以解決虛擬桌面環境下的幾個重大問題之一。VDI項目實現起來可能會非常昂貴,在許多公司,由於VDI項目的投資回報並非像伺服器虛擬化那麼明顯,為VDI項目獲得資金資助也相對困難。將SSD和廉價存儲混合可以讓你在降低項目費用的同時,仍然可以提供足夠的性能以消除啟動風暴。
❸ primocache用過嗎真有提速的趕腳
非常NB的,建議使用!
下面說說我使用至今的體會:
第一,用內存給SSD加速,不開回寫也可以極大提高SSD的突發傳輸率。如果開了回寫,則不僅可以提高SSD的寫入性能,而且還可以延長SSD的壽命!
第二,用內存和SSD可以給HDD加速。本人經過實踐和各種比較平衡,覺得和Primocache最配的就是INTEL的傲騰。這個傲騰,4K性能遠超NAND,而且傲騰天生不帶DRAM緩存,所以無懼掉電風險!這個用來給HDD當作回寫緩存,那是天造地設一般!我現在還用900P或者905P這樣的高速傲騰,給一般的SATA SSD和NVME SSD加速。由於傲騰的壽命超長,利用傲騰給NAND SSD進行回寫緩存,不僅可以提高SSD的讀寫速度,而且可以節省SSD的壽命。一塊280G的900P,按照1GB Cache/TB的標准,應該可以對280TB的空間進行讀寫緩沖吧,而且沒有掉電易失的問題。我以前都用MLC NAND做緩存,現在全部改成傲騰了!
第三,大大簡化了NAS的配置。我是用Windows Server配置文件伺服器,單獨用2塊900P組建了一個CachePool。然後由若干個HDD組成一個純存儲池,不搞什麼分層存儲和SSD緩存。根據需要,從CachePool中劃分不同容量和類型的虛擬盤給純存儲池中的虛擬盤進行加速。
❹ 解析如何超越RAID非結構化數據存儲
而RAID仍然是許多企業最喜愛的存儲架構,對象存儲初創公司Amplidata尋求以非傳統方式替代PB級規模非結構化數據的泛濫。
「RAID磁碟存儲仍然占企業IT部署的主導地位,但由於日益增長的磁碟密度,RAID不再能滿足現代存儲基礎設施的可靠性要求,Amplidata的聯盟和市場營銷總監Tom
Leyden說:「為了解決RAID的這些缺點,用戶已經轉向管理文件的多個副本--但(他們)往往在存儲利用率和功耗方面支付一個過高的價格。」
Amplidata由一群歐洲高科技創業者成立於2008年,總部設在比利時Lochristi,Ghent附近,在美國加利福尼亞州紅木城設有辦事處。
Amplidata的旗艦產品是AmpliStor設備,該公司描述了面向PB級別的大文件基礎設施來優化的對象存儲系統。萊頓解釋Amplidata定位自己為一個大型方案的應用,如需要即時檢索媒體檔案的廣播電視用戶,或者也有類似的可用性期望的,支持社交遊戲網路的雲存儲系統。這些應用適合廣泛類別的非結構化媒體對象,如音頻、視頻和圖像文件,Amplidata的目標旨在以非常規方法替代傳統RAID部署。
Amplidata稱其AmpliStor產品可擴展到數百PB級的存儲,並且比傳統的解決方案節約50%到70%的容量、更小的空間佔用,轉換為節約成本和功耗。
AmpliStor背後的技術是由高密度,低功耗的存儲節點對搭配高性能的控制器節點,通過一個10GbE網路介面運行行業標準的HTTP/REST協議。
「這使得系統擴展吞吐量,以滿足任何應用要求,」萊頓解釋說。「後端存儲池散布到許多存儲節點滿足應用程序的容量要求,理論上系統支持無限數量的存儲節點」。
Amplidata通過調用其BitSpread技術,AmpliStor設備採用另一種方式將數據寫入到磁碟,萊頓介紹道,「在多TB驅動器上具備比RAID更好的可靠性。」BitSpread技術分割和編碼數據對象成為sub-blocks(子塊),然後散布在系統內最大數目的磁碟上。要恢復原始數據對象,BitSpread系統只需要這些子塊的一部分,提供了在多個磁碟或存儲節點出現故障時高級別的可靠性。
Amplidata的管理者認為圖像、視頻和其他富媒體形式的非結構化數據將成為驅動力,推動在未來十年大數據的增長,而對象存儲非常適合擴展到維護和訪問這些信息量。那麼,我們面臨的挑戰是說服潛在客戶,長期以來傳統的基於主機文件系統的企業存儲架構將被大數據打垮。
「對象存儲是一個很新的範例,」萊頓說。「幾十年來組織機構已經針對基於文件的存儲來解決提高RAID的限制,他們才剛剛開始得知有一個更好的辦法。」
Amplidata直接銷售給客戶,並正在擴大其渠道合作夥伴網路,並培養與OEM的聯盟。
在今年第一季度,該公司計劃把高密度的存儲模塊、更快的控制器和基於SSD的數據加速器推向市場,這將提高讀取性能。
❺ 存儲性能和空間利用率哪個重要
最大限度地挖掘存儲系統的性能潛力是用戶永遠的追求,但是,面對眾多性能優化技術,還必須考慮到底是性能重要還是空間利用率重要。
在當前經濟形勢低迷的大背景下,挖掘現有存儲系統的性能潛力成為用戶的必然選擇,不過追求性能只是一個方面。
看到的現象是大多數存儲系統的空間利用率還不到50%,而且存儲控制器的處理能力也只用到一小部分,這些都是讓用戶不可接受的事實。
在數據中心應用領域,通過伺服器整合以及虛擬化技術,物理伺服器的資源已經被最大化的利用起來,與此相反的是,存儲效率低下的問題卻成為用戶的痛點。
若要實現伺服器虛擬化的高效率,存儲系統就必須跟得上,這是一個必要的前提,因此伺服器虛擬化應用推動著存儲技術向更高效的方向發展。
在虛擬化環境中,當前端伺服器數量不斷增加,後端存儲陣列的不足便暴露出來,尤其表現在缺乏細粒度的分配和調動空間資源的能力方面。
因此,如果用戶希望對數據中心進行高度整合,那麼伺服器虛擬化技術和高效的存儲技術二者缺一不可。
存儲效率是一個綜合性的指標,實現最佳的存儲效率意味著要在有效存儲空間以及可用處理資源兩方面都有出色表現,通常也是各產品之間相互競爭的重點。
StorageIO高級分析師GregSchulz說,「為了達到應用所需的IOPS能力,有些存儲系統被設計得很大,通過大量磁碟的並發來提升IOPS,可是空間利用率卻非常低,反之,追求空間利用率的最大化往往需要藉助存儲精簡技術,比如壓縮和重復數據刪除等等,但是這些功能會對系統性能帶來負面的影響「。
因此,達成高效的存儲就需要在容量和性能之間尋找一個平衡點,根據應用需求的不同,對容量、處理能力、性能以及成本進行控制和優化。
保證存儲效率有哪些基本條件優化存儲系統的性能,本質上就是要盡可能地提高存儲處理資源的利用率,同時盡量消除系統的瓶頸或阻塞。
隨著處理資源利用率的增加,剩餘的處理資源以及響應額外處理請求的能力相應的就會降低。
而且如果緩沖區太小,那麼系統達到性能上限(瓶頸)的可能性就非常大。
舉個例子來說,一個平均處理資源利用率在50%的磁碟陣列不太可能觸及性能上限(瓶頸),而對於一個利用率達到80%的系統來說,這個可能性就要大得多。
高效存儲技術及其對性能、容量和成本的影響由存儲廠商或第三方公司提供的內嵌在存儲系統內部或在外部附加的運行報告、監控以及存儲分析功能是十分重要的,它們可以幫助用戶更好的了解系統的運行情況,避免系統過度(過高)配置,並減少很多後期維護工作。
尤其是當用戶需要優化性能或者按需增加處理資源時,這些組件的作用就會體現的非常明顯。
對此,StorageIO高級分析師GregSchulz評價道:「無論是性能問題還是容量問題,好好利用存儲廠商或第三方公司提供的工具都是十分重要的。
」這些工具不僅能夠幫助用戶定位性能的問題,更重要的方面在於它們可以幫助用戶選擇出最恰當的解決方案。
衡量一套存儲系統的性能並不能依賴某個單一指標,而要考慮多種組合因素,它們每一項都對應用程序訪問數據的速度有所影響。
其中,IOPS、吞吐帶寬和訪問延遲這三項指標是最關鍵的。
不過,指標數據究竟是好是壞還要考慮應用環境的差異,包括工作負載的類型(隨機請求或者順序請求)、數據塊的大小、交易類型(讀或是寫),以及其他相關的能夠影響性能的因素都依賴於應用程序本身的特點。
比方說,如果是流媒體視頻應用,那麼大文件快速順序讀性能和大數據塊是最重要的;
而如果是虛擬化應用環境,那麼隨機讀性能通常是最主要的考察指標。
下面的部分,將縱覽那些可以優化性能並且提高存儲資源利用率的技術,這里沒有獨門秘籍,因為每一種方法都有其優點和缺點。
通過堆砌磁碟數量來提高性能磁碟驅動器是一種機械裝置,讀寫磁頭通過在高速旋轉碟片的內道和外道之間往復移動來尋找並讀寫數據。
即使是轉速最快的15000轉磁碟,其磁頭機械臂的重定位時間延遲都會有數毫秒之多,因此每個磁碟的IOPS值最多隻有幾百個,吞吐帶寬則局限在100MB/秒以內。
通過將數據分布在多個磁碟上,然後對多個磁碟同步進行讀寫訪問是一種常見的擴展性能的方法。
通過增加磁碟的個數,系統整體的IOPS和帶寬值也會等比例提升。
加之,有些存儲廠商還提供shortstr好ing這樣的可以縮短磁頭機械臂移動距離的技術。
此類技術可以將數據集中放置在磁碟碟片的外道區域,結果是磁頭移動的距離大大縮短,對數據訪問的性能具有十分明顯的提升作用。
可是,當通過利用大量的磁碟並發以及short-str好ing磁頭短距離移動技術達成既定的性能目標之後,會發現其代價是非常高昂的,此外,由於僅僅使用了碟片的外道空間,所以存儲的空間利用率會非常差。
早在SSD固態盤技術出現之前,利用大量的磁碟並發以及short-str好ing磁頭短距離移動技術來滿足應用的性能要求是最普遍的辦法,即使在今天,這種方案依然被大量使用,原因是SSD固態盤的成本太高,所以用戶依然青睞磁碟而不是SSD。
NatApp技術和戰略總監MikeRiley就說:「對於順序訪問大數據塊和大文件這樣的應用,使用磁碟通常性價比更高。
」RAID及wide-striping技術對效率的影響很多用戶容易忽視一點,即RAID和RAID級別其實都會對性能和容量產生影響。
通過改變RAID級別來提升存儲性能或者空間的利用率是一種很現實的選擇。
校驗盤的數量、條帶的大小、RAID組的尺寸以及RAID組內數據塊大小都會影響性能和容量。
RAID技術對性能和容量的影響都熟悉那些常見的RAID級別及其特點,但還有一些不常見的技術趨勢值得關注,這些都與討論的存儲效率有關。
首先,RAID組的尺寸會影響性能、可用性以及容量。
通常,大的RAID組包含的磁碟數量更多,速度也更快,但是,當出現磁碟故障後,大RAID組也需要更多的時間用來重建。
每隔幾年,磁碟的容量都會翻一番,其結果是RAID重建的時間也相應變的更長,在數據重建期間出現其他磁碟故障的風險也變得更大。
即使是帶有雙校驗機制,允許兩塊磁碟同時出現故障的RAID6也存在風險增加的問題,況且,RAID6對性能的影響還比較大。
有一個更好的辦法是完全打破傳統RAID組和私有校驗盤的概念,比如,NetApp的DynamicDiskPools(DDP)技術,該技術將數據、校驗信息以及閑置空間塊分散放置在一個磁碟池中,池中所有的磁碟會並發處理RAID重建工作。
另一個有代表性的產品是HP的3PAR存儲系統,3PAR採用了一種叫做widestriping的技術,將數據條塊化之後散布在一大堆磁碟上,同時磁碟自身的裸容量又細分成若干小的存儲塊(chunklet)。
3PAR的卷管理器將這些小的chunklet組織起來形成若干個micro-RAID(微型RAID組),每個微型RAID組都有自己的校驗塊。
對於每一個單獨的微型RAID組來說,其成員塊(chunklet)都分布在不同的磁碟上,而且chunklet的尺寸也很小,因此數據重建時對性能的沖擊和風險都是最小的。
固態存儲毫無疑問,SSD固態存儲的出現是一件劃時代的「大事兒「,對於存儲廠商來說,在優化性能和容量這兩個方面,SSD技術都是一種全新的選擇。
與傳統的磁碟技術相比,SSD固態盤在延遲指標方面有數量級上的優勢(微秒對毫秒),而在IOPS性能上,SSD的優勢甚至達到了多個數量級(10000以上對數百)。
Flash技術(更多的時候是磁碟與flash的結合)為存儲管理員提供了一種更具性價比的解決方案,不必像過去那樣,為了滿足應用對性能的高要求而不得不部署大批量的磁碟,然後再將數據分散在磁碟上並發處理。
SSD固態盤最佳的適用場景是大量數據的隨機讀操作,比如虛擬化hypervisor,但如果是大數據塊和大文件的連續訪問請求,SSD的優勢就沒有那麼明顯了。
EMC統一存儲部門負責產品管理與市場的高級副總裁EricHerzog說:「Flash的價格仍然10倍於最高端的磁碟,因此,用戶只能酌情使用,而且要用在刀刃上。
」目前,固態存儲有三種不同的使用方式:第一種方式,用SSD固態盤完全代替機械磁碟。
用SSD替換傳統的磁碟是最簡單的提升存儲系統性能的方法。
如果選擇這個方案,關鍵的一點是用戶要協同存儲廠商來驗證SSD固態盤的效果,並且遵循廠商提供的建議。
如果存儲系統自身的處理能力無法承載固態存儲的高性能,那麼SSD有可能會將整個系統拖垮。
因為,如果SSD的速度超出了存儲控制器的承受范圍,那麼很容易出現性能(I/O阻塞)問題,而且會越來越糟。
另一個問題涉及到數據移動的機制,即的數據在什麼時候、以何種方式遷移到固態存儲上,或從固態存儲上移走。
最簡單但也最不可取的方法是人工指定,比如通過手動設定將資料庫的日誌文件固定存放在SSD固態存儲空間,對於比較老的存儲系統來說,這也許是唯一的方式。
在這里推薦用戶使用那些自動化的數據分層移動技術,比如EMC的FAST(FullyAutomatedStorageTiering)。
第二種方式,用Flash(固態存儲晶元)作為存儲系統的緩存。
傳統意義上的DRAM高速緩存容量太小,因此可以用Flash作為DRAM的外圍擴展,而這種利用Flash的方式較之第一種可能更容易實現一些。
Flash緩存本身是系統架構的一個組成部分,即使容量再大,也是由存儲控制器直接管理。
而用Flash作緩存的設計也很容易解決數據分層的難題,根據一般的定義,最活躍的數據會一直放置在高速緩存里,而過期的數據則駐留在機械磁碟上。
與第一種方式比較,存儲系統里所有的數據都有可能藉助Flash高速緩存來提升訪問性能,而第一種方式下,只有存放在SSD固態盤中的數據才能獲得高性能。
初看起來,用Flash做高速緩存的方案幾乎沒有缺陷,可問題是只有新型的存儲系統才支持這種特性,而且是選件,因此這種模式的發展受到一定的制約。
與此相反,看到用Flash做大容量磁碟的高速緩存(而不是系統的高速緩存)反而成為更普遍的存儲架構設計選擇,因為它可以將高容量和高性能更好的融合。
IBM存儲軟體業務經理RonRiffe說:「在一套磁碟陣列中,只需要增加2-3%的固態存儲空間,幾乎就可以讓吞吐帶寬提高一倍。
」在伺服器中使用Flash存儲卡。
數據的位置離CPU和內存越近,存儲性能也就越好。
在伺服器中插入PCIeFlash存儲卡,比如Fusion-IO,就可以獲得最佳的存儲性能。
不太有利的一面是,內置的Flash存儲卡無法在多台伺服器之間共享,只有單台伺服器上的應用程序才能享受這一好處,而且價格非常昂貴。
盡管如此,仍然有兩個廠商對此比較熱衷,都希望將自己的存儲系統功能向伺服器內部擴展。
一個是NetApp,正在使其核心軟體DataOntap能夠在虛擬機hypervisor上運行;
另一個是EMC,推出的功能叫做VFCache(原名叫ProjectLightning)。
顯而易見,這兩家公司的目標是通過提供伺服器端的Flash存儲分級獲得高性能,而這種方式又能讓用戶的伺服器與提供的外部存儲系統無縫集成。
存儲加速裝置存儲加速裝置一般部署在伺服器和存儲系統之間,既可以提高存儲訪問性能,又可以提供附加的存儲功能服務,比如存儲虛擬化等等。
多數情況下,存儲加速裝置後端連接的都是用戶已有的異構存儲系統,包括各種各樣的型號和品牌。
異構環境的問題是當面臨存儲效率低下或者性能不佳的困擾時,分析與評估的過程就比較復雜。
然而,存儲加速裝置能夠幫助已有磁碟陣列改善性能,並將各種異構的存儲系統納入一個統一的存儲池,這不但可以提升整個存儲環境的整體性能、降低存儲成本,而且還可以延長已有存儲的服役時間。
最近由IBM發布的是此類產品的代表,它將IBM的存儲虛擬化軟體SVC(SANVolumeController)以及存儲分析和管理工具集成在一個單獨的產品中。
可以將各種異構的物理存儲陣列納入到一個虛擬存儲池中,在這個池之上創建的卷還支持自動精簡配置。
該裝置不但可以管理連接在其後的存儲陣列中的Flash固態存儲空間,而且自身內部也可以安裝Flash固態存儲組件。
通過實時存儲分析功能,能夠識別出I/O訪問頻繁的數據以及熱點區域,並能夠自動地將數據從磁碟遷移到Flash固態存儲上,反向亦然。
用戶可以藉助的這些功能大幅度的提高現有的異構混合存儲系統環境的性能和空間利用率。
與IBM類似的產品還有Alacritech和Avere,它們都是基於塊或基於文件的存儲加速設備。
日益增加的存儲空間利用率利用存儲精簡技術,可以最大化的利用起可用的磁碟空間,存儲精簡技術包括自動精簡配置、瘦克隆、壓縮以及重復數據刪除等等。
這些技術都有一個共同的目標,即最大程度的引用已經存在的數據塊,消除或避免存儲重復的數據。
然而存儲精簡技術對系統的性能稍有影響,所以對於用戶來說,只有在明確了性能影響程度並且能夠接受這種影響的前提下,才應該啟動重復數據刪除或數據壓縮的功能。
性能和容量:密不可分存儲系統的性能和空間利用率是緊密相關的一對參數,提升或改進其中的一個,往往會給另一個帶來負面的影響。
因此,只有好好的利用存儲分析和報表工具,才能了解存儲的真實性能表現,進而發現系統瓶頸並採取適當的補救措施,這是必要的前提。
總之,提高存儲效率的工作其實就是在性能需求和存儲成本之間不斷的尋找平衡。
❻ 最近想把Windows Server 2012 R2搭建的存儲池遷移,怎麼弄
之前嘗試過在CentOS下Build了一個ZFS,windows 自帶的NFS client MOUNT ZFS NFS,速度只有15M/S, 可能是windows 的mount命令不支持某些特性,比如說非同步,也不支持UTF8字元集,放棄,沒有深入研究iSCSI/SMB是不是有性能提升,感覺ZFS不夠靈活,加一個硬碟什麼的還要佔位,硬碟還要規格一樣。。。
看到微軟把windows server 2012 r2的存儲池吹的神一樣,所以就利用一些時間用虛擬機搭建下環境測試了,共兩台虛擬機在一個hyper-v host上,使用Hyper-V internal Switch作為兩台虛擬機的網卡(純虛擬交換機,不經過物理網卡和路由器的折騰,性能應該更好) 1. 虛擬機windows server 2012 r2存儲伺服器: 用3個fixed VHD文件作為的3個磁碟,每個30GB,vhd文件分別放在不同的物理磁碟上 (2 hdd, 1 ssd) 2. 虛擬機Windows 7: 復制一個5GB的視頻文件到存儲伺服器作為測試,結果如下:
Simple 模式:90MB/S
Mirror 模式: 70-80MB/S
Parity模式 (1個磁碟還是在ssd上的vhd disk): 30-40MB/S
嘗試過在物理ssd上新建3個vhd文件做存儲池的write back cache,大文件復制性能無改善 當然因為是虛擬機還是vhd disk,而且硬碟沒有緩存,性能可能比實際物理硬碟低,測試結果僅供參考 接下去可能測試直接在Windows Server 2012 R2 HyperV Host上建立物理存儲池和直接passthrough硬碟給存儲虛擬機, 比較一下性能是否有提高, 當然虛擬機環境和存儲最好分開,可能沒有這個硬體條件搞兩台機器
更新:
東芝2t * 3 passthrough到存儲虛擬機然後建一個parity disk基本上有50m-60m左右,有時候能上70M,但是寫小文件時候出現速度為0,一會又回復正常的情況,不解,3盤全開,咯咯咯咯的噪音不小
硬體:
CPU: E3 1230 V2
Memory: 32GB
Network: 山寨Intel ET Dual Port Server Adapter + Realtek E1000
HD: 浦科特128GB SSD * 1+ 三星830 64GB SSD * 1 + 東芝HDD 2TB * 3 + 250GB 東芝2.5寸HDD * 1 + 1TB WD 3.5寸USB HDD * 1
GPU: AMD HD 7850
主機,Windows 2012 R2 Hyper-V安裝在浦科特m5s 128GB SSD上面
如果開一個虛擬機安裝windows server 2012 r2 standard做存儲池的話,硬碟使用passthrough是不行的,因為做存儲池時對虛擬機中的硬碟的改寫直接寫到直通的硬碟上,重啟電腦後,虛擬機會啟動不了,因為直通的硬碟被改寫了,hyper-v 裡面已經識別不了了,在hyper-v主機上打開存儲池的管理界面會發現存儲池在hyper-v host上。。。
我把INTEL雙口網卡做Teaming (sr-iov怎麼都無法啟用,不知道是山寨網卡的問題還是Z77主板的問題 (VT-D支持),說什麼Access Control Service在BIOS沒有啟用什麼的):
存儲池中的硬碟: 東芝HDD 2TB * 3 + 三星830 SSD 64GB
1. Parity disk: 1TB at 3 HDD, Thin Provisioning, 放照片等重要的東西,貌似parity disk無法分層,這樣沒有使用SSD讀加速了
2. Simple Disk1(啟用存儲分層): 40GB at 1 SSD + 210GB at 3 HDD + 4GB Write Back Cache at 1 SSD, Fixed Provisioning, 運行虛擬機用,開讀寫緩存增加性能
3. Simple Disk2 * 3: 1.82TB at 1 HDD, , Thin Provisioning,存放電影, 要想只在HDD上建立vDisk, 需要ps命令 (大於800GB的都是HDD DISK), 分別對每一個硬碟做一個Virtual Disk, 這樣即使每個硬碟壞了,不會影響其他的Virtual Disk上的文件,默認如果使用全部3個HDD的話作為一個Disk的物理盤的話,文件會平均分配到3個硬碟,即使設置NumberOfColumns = 1,一個硬碟掛,文件掛,
4. 在上面建立放電影的disk上開NFS/SMB共享,高清播放器可以播放
在Simple Disk1開一個虛擬機,直通一個250 2.5寸東芝筆記本HDD作下載,下載完轉移到1TB 3.5寸西部數據USB硬碟
再在Simple Disk1開一個虛擬機,安裝windows 7工作用, windows 7的IE兼容性好
❼ win10的個人用戶能用存儲池改善HDD性能么
不可以用固態加速,win10的存儲池沒有分層的功能。之前有在網站上看到報道,說win10可以全自動建立分層儲存。但我測試了一下,儲存池結構120g三星ssd.2T西數綠*1,3T西數藍*3,放到win10上構建儲存池,保存數據後遷移到win ser2016上識別。僅僅是簡單的把這幾個硬碟放一起了而已,未建立分層。
但是基本的多HHD放一塊提高速度,這個功能還是有的。simple模式寫入能有不到200,性能差於用過的軟raid,但是存儲池比raid方便太多。
❽ 求教諸君大佬,Server 2012R2的存儲池,如何用SSD作緩存
13年10月的正式版cn_windows_server_2012_r2_vl_x64_dvd_3316795.iso13年12月12日發的新版
❾ 如何使用SSD解決桌面虛擬化的啟動風暴求解
不過支撐VDI的存儲環境需要仔細的規劃,以避免VDI啟動風暴的問題,即當大量的用戶同時登錄系統時所造成的系統反應非常緩慢。有許多方法可以解決這個問題,但最有效的方法是將數據巧妙的放置在固態硬碟(SSD)上。
VDI啟動風暴的問題表現形式非常簡單。虛擬桌面工作負載是可預測的;它基於桌面用戶的工作時間,通常是每個工作日的上午9點到下午5點。相對於伺服器的工作負載而言,普通的一台虛擬桌面所產生的所有存儲I/O是相當低的,因此通常在一台物理主機上可以部署的虛擬桌面的密度比虛擬伺服器要大得多。相反,虛擬桌面的初始啟動則相當消耗資源,此時操作系統和應用需要從磁碟讀取大量的數據以載入和執行。
啟動風暴發生在大量的虛擬桌面在短時間內同時啟動之時(例如,在上午8點到9點之間),由此引起的大量存儲I/O可以很輕易的將存儲系統淹沒。如果存儲系統不能很好的設計以處理如此密集的I/O負載,最終存儲系統將無法提供服務。
當這種情況發生時,桌面用戶將會感覺到虛擬桌面極度緩慢,以至於幾乎無法使用。如果這種情況每天發生,那麼你可以確定你的用戶將會不停的抱怨,你的VDI項目將趨於失敗,你的用戶也會強烈要求重新使用他們的物理桌面。你必須竭盡全力避免這種情況發生,也即由於缺乏良好的設計而導致一項具有許多優點的技術解決方案,最終的實現效果卻非常之差。
在VDI實施之後來改善缺乏良好設計的存儲系統是可能的,但相對於在之前做出正確的規劃,代價要高昂得多,例如也許你的系統由於無法升級以滿足需求,導致系統需要整個被替換掉。
一旦用戶啟動系統,登錄和載入應用之後,存儲I/O通常將保持在一個比較低的水平。虛擬桌面在啟動時和啟動之後所產生的IOPS有著天壤之別,導致VDI環境下的存儲架構設計極具挑戰性。通常,運行Windows 7的虛擬桌面在啟動時會產生50到100個IOPS,一旦運行平穩,平均IOPS下降到5-10。因此,為了滿足由啟動風暴引起的I/O需求,你的存儲系統通常需要設計成能滿足這種最壞的情況。
僅僅為滿足啟動風暴時的IOPS需求而設計的存儲架構將相當昂貴。通常,為增加存儲系統的IOPS處理能力,你需要增加更多的的物理磁碟,從而使負載可以分布在更多的磁碟之上。這意味著你將擁有大量超出你需求磁碟容量。設想,設計一條具有8車道的高速公路,僅僅只是為了處理每天1到2個小時的高峰期擁堵,而在餘下的時間里,僅僅兩條車道就足以應付。最終的結果,你將不得不維護一條極其昂貴的高速公路。
使用SSD解決VDI啟動風暴問題
為了平安度過啟動風暴,相對於裝備整個的存儲陣列來處理所需的IOPS,存在更好的解決方案。你可以通過增加兩條大容量快速車道來處理高峰期的車流,而不是建造一條8車道的高速公路。
SSD相對於傳統的機械磁碟要快得多,傳統機械磁碟通常受限於磁碟轉速。一般而言,每分鍾15000轉的SAS磁碟最多可以處理的IOPS為180,而SSD可以處理大約5000個IOPS。當然,這種性能的提升也伴隨著極高的成本。如果用於虛擬桌面的存儲系統全部採用SSD磁碟,固然很好,但對於絕大多數用戶而言,高昂的成本將使他們望而卻步。
不過使用少量的SSD磁碟來承載啟動風暴時所產生的大量I/O是非常經濟的。如此設計,你可以使用大量價格相對較低的SAS和 SATA磁碟來滿足磁碟容量的需求,同時少量的SSD磁碟來滿足處理高峰期I/O負載的性能需求。
選項A: 將某些文件放在SSD上。這種解決方案有多種實現方式。第一種是將虛擬機的母版映像文件和副本放置SSD存儲池中。當在VDI中使用Linked Clones(在VMware View中)或Machine Creation Services(在XenDesktop中)時,母版映像文件作為只讀磁碟為所有桌面虛擬機所共享。它是所有部署的桌面操作系統的母盤,然後每個虛擬機將單獨保留一份可寫的快照以存放所有對於母盤的修改。
當桌面虛擬機經歷啟動過程時,大部分的磁碟活動來自於母版映像,也就是大部分的操作系統文件和應用文件存放的地方。因此,將母版映像和副本存放在SSD存儲上可以消除啟動風暴。其它所有單獨的虛擬機快照磁碟可以存放在較低層級(SAS或SATA)的存儲上。
選項B:使用SSD作為緩存層。另外一種解決啟動風暴的方法是將快速的SSD磁碟作為緩存層放置在由SAS和SATA組成的較慢存儲池的前端。飛康的NSS SAN Accelerator即是針對VMware View的這樣一種解決方案,NSS SAN Accelerator包含由SSD磁碟組成的硬體裝置,放置在主機和存儲設備之間。此硬體裝置作為緩存層,所有的存儲I/O都將通過它到達後端的存儲設備。緩存硬體裝置可以識別頻繁訪問的磁碟數據塊,並自動將其緩存,這樣這些數據塊將可以從快速的SSD磁碟讀取,而非從較慢的後端存儲。通過緩存一些共同的數據如虛擬機母版映像,它可以按需動態調整以滿足任何高I/O需求,從而消除啟動風暴。
顯然,實現這些解決方案的最佳時機是在你的VDI項目的設計階段。如今,很多的存儲設備都具備存儲分層的功能,支持將不同性能特徵的磁碟放置在同一存儲池裡。它們也可以用來解決由啟動風暴引起的存儲 I/O瓶頸問題。通過加入由少量SSD磁碟組成的存儲池,你可以將虛擬機母版映像從較慢的存儲層轉移到SSD存儲層,以處理由啟動風暴引起的大量I/O。在現有的主機和存儲設備之間加入飛康的硬體裝置是一種簡便易行的手段,對已有的基礎架構的影響和改動也非常之小。
SSD容量規劃
當SSD作為存儲層實現以應對啟動風暴所引起的峰值I/O時,正確的容量規劃就顯得相當重要。為確定購買多少SSD磁碟,你必須計算出你的虛擬桌面系統所產生的最大I/O值。盡管你可以使用基於典型環境下的估算值,建議您最好使用性能分析工具測算出現有物理桌面系統的實際I/O,如使用Lakeside軟體公司的SysTrack VDI評測工具,因為每一個用戶的環境都不盡相同。將主機上承載的虛擬桌面數量-例如500,乘以桌面系統在啟動時產生的典型IOPS-例如60,就可以確定出所有桌面同時登錄時所產生的總體IOPS(500 x 60 = 30,000)。由於所有桌面不可能完全在同一時刻登錄,你可以將計算出的值稍微向下調整。不過估算多一些餘量總是更好一些。
一旦確定了你的IOPS需求,你需要據此來規劃你的SSD存儲層。如果單塊的SSD可以處理5000個IOPS,6塊SSD則可以處理30000個IOPS。(注意這只是大致的估算。為了實現適合你特定環境的最佳方案,你必須對你的需求進行正確的評估,並和存儲廠商一起實現滿足你需求的SSD解決方案)
預防和解決啟動風暴問題並不意味著非常昂貴或復雜,SSD提供了一種很好的解決方案以解決虛擬桌面環境下的幾個重大問題之一。VDI項目實現起來可能會非常昂貴,在許多公司,由於VDI項目的投資回報並非像伺服器虛擬化那麼明顯,為VDI項目獲得資金資助也相對困難。將SSD和廉價存儲混合可以讓你在降低項目費用的同時,仍然可以提供足夠的性能以消除啟動風暴。
❿ 蘋果電腦兼容NVMe SSD的存儲池
當可在公司網站上訂購Apple的2019 Mac Pro時,最多隻能配置4TB的PCIe NVMe SSD。
在筆記本領域,SSD主要以兩種形態示人。其一是2.5英寸硬碟形態,也就是我們常說的「筆記本硬碟」,採用了標準的SATA3.0(又稱6Gbps)介面。其二則是迷你硬碟形態,包括mSATA(已淘汰)和M.2(早期又稱NGFF)兩種介面,而M.2則還能細分為B Key(又稱Socket2)和M Key(又稱Socket3)兩種標准,其中只有M Key才能支持PCI Express Gen 3×4匯流排(下文簡稱PCI-E 3.0×4)。
嚴格意義來講,NVMe SSD這種說法是不嚴謹的,NVMe(Non-Volatile Memory Express,非易失性存儲器)只是一種高速傳輸協議規范,用來取代AHCI傳輸協議。我們可以將NVMe理解為一種專門針對PCI-E 3.0×4匯流排定製的「優化驅動」,這種超高速SSD的完整名稱,應該是「支持NVMe協議的、運行在PCI-E 3.0×4通道模式的M Key標准插槽的M.2 SSD」。