磁碟陣列怎樣查看緩存
A. RAID卡的RAID卡的緩存
緩存(Cache)是RAID卡與外部匯流排交換數據的場所.
RAID卡先將數據傳送到緩存,再由緩存和外邊數據匯流排交換數據,它是RAID卡電路板上的一塊存儲晶元,與硬碟碟片相比,具有極快的存取速度,實際上就是相對低速的硬碟碟片與相對高速的外部設備(例如內存)之間的緩沖器。
緩存的大小與速度是直接關繫到RAID卡的實際傳輸速度的重要因素,大緩存能夠大幅度地提高數據命中率從而提高RAID卡整體性能。
(1)磁碟陣列怎樣查看緩存擴展閱讀:
作用具體體現在讀與寫兩個不同的方面:
作為寫,一般存儲陣列只要求數據寫到 Cache 就算完成了寫操作,當寫 Cache 的數據積累到一定程度,陣列才把數據刷到磁碟,這樣可以實現批量的寫入,所以,陣列的寫是非常快速的
至於 Cache 數據的保護,一般都依賴於鏡像與電池 ( 或者是 UPS) 。Cache 在讀數據方面的作用,當所要讀取的數據能在 Cache 中命中的話,將大大減少磁碟尋道所需要的時間,存儲的 Cache 大小對整個 I/O 性能的影響是非常大的。
B. 磁碟陣列(raid1)如何查看和修復
每種晶元組實行起來不一樣。
我這里只有nv的,你參考一下。
一、什麼是RAID?其具備哪些常用的工具模式?
即然提到了RAID磁碟陣列,那麼我們就先來了解一下什麼是RAID?所謂的RAID,是Rendant Arrays of Independent Disks的簡稱,中文為廉價冗餘磁碟陣列。由1987年由加州大學伯克利分校提出的,初衷是為了將較廉價的多個小磁碟進行組合來替代價格昂貴的大容量磁碟,希望單個磁碟損壞後不會影響到其它磁碟的繼續使用,使數據更加的安全。RAID作為一種廉價的磁碟冗餘陣列,能夠提供一個獨立的大型存儲設備解決方案。在提高硬碟容量的同時,還能夠充分提高硬碟的速度,使數據更加安全,更加易於磁碟的管理。
了解RAID基本定義以後,我們再來看看RAID的幾種常見工作模式。
1、RAID 0
RAID 0是最早出現的RAID模式,即Data Stripping數據分條技術。RAID 0是組建磁碟陣列中最簡單的一種形式,只需要2塊以上的硬碟即可,成本低,可以提高整個磁碟的性能和吞吐量。RAID 0沒有提供冗餘或錯誤修復能力,是實現成本是最低的。
RAID 0最簡單的實現方式就是把N塊同樣的硬碟用硬體的形式通過智能磁碟控制器或用操作系統中的磁碟驅動程序以軟體的方式串聯在一起創建一個大的卷集。在使用中電腦數據依次寫入到各塊硬碟中,它的最大優點就是可以整倍的提高硬碟的容量。如使用了三塊80GB的硬碟組建成RAID 0模式,那麼磁碟容量就會是240GB。其速度方面,各單獨一塊硬碟的速度完全相同。最大的缺點在於任何一塊硬碟出現故障,整個系統將會受到破壞,可靠性僅為單獨一塊硬碟的1/N。
為了解決這一問題,便出一了RAID 0的另一種模式。即在N塊硬碟上選擇合理的帶區來創建帶區集。其原理就是將原先順序寫入的數據被分散到所有的四塊硬碟中同時進行讀寫。四塊硬碟的並行操作使同一時間內磁碟讀寫的速度提升了4倍。
在創建帶區集時,合理的選擇帶區的大小非常重要。如果帶區過大,可能一塊磁碟上的帶區空間就可以滿足大部分的I/O操作,使數據的讀寫仍然只局限在少數的一、兩塊硬碟上,不能充分的發揮出並行操作的優勢。另一方面,如果帶區過小,任何I/O指令都可能引發大量的讀寫操作,佔用過多的控制器匯流排帶寬。因此,在創建帶區集時,我們應當根據實際應用的需要,慎重的選擇帶區的大小。
帶區集雖然可以把數據均勻的分配到所有的磁碟上進行讀寫。但如果我們把所有的硬碟都連接到一個控制器上的話,可能會帶來潛在的危害。這是因為當我們頻繁進行讀寫操作時,很容易使控制器或匯流排的負荷超載。為了避免出現上述問題,建議用戶可以使用多個磁碟控制器。最好解決方法還是為每一塊硬碟都配備一個專門的磁碟控制器。
雖然RAID 0可以提供更多的空間和更好的性能,但是整個系統是非常不可靠的,如果出現故障,無法進行任何補救。所以,RAID 0一般只是在那些對數據安全性要求不高的情況下才被人們使用。
2、RAID 1
RAID 1稱為磁碟鏡像,原理是把一個磁碟的數據鏡像到另一個磁碟上,也就是說數據在寫入一塊磁碟的同時,會在另一塊閑置的磁碟上生成鏡像文件,在不影響性能情況下最大限度的保證系統的可靠性和可修復性上,只要系統中任何一對鏡像盤中至少有一塊磁碟可以使用,甚至可以在一半數量的硬碟出現問題時系統都可以正常運行,當一塊硬碟失效時,系統會忽略該硬碟,轉而使用剩餘的鏡像盤讀寫數據,具備很好的磁碟冗餘能力。雖然這樣對數據來講絕對安全,但是成本也會明顯增加,磁碟利用率為50%,以四塊80GB容量的硬碟來講,可利用的磁碟空間僅為160GB。另外,出現硬碟故障的RAID系統不再可靠,應當及時的更換損壞的硬碟,否則剩餘的鏡像盤也出現問題,那麼整個系統就會崩潰。更換新盤後原有數據會需要很長時間同步鏡像,外界對數據的訪問不會受到影響,只是這時整個系統的性能有所下降。因此,RAID 1多用在保存關鍵性的重要數據的場合。
RAID 1主要是通過二次讀寫實現磁碟鏡像,所以磁碟控制器的負載也相當大,尤其是在需要頻繁寫入數據的環境中。為了避免出現性能瓶頸,使用多個磁碟控制器就顯得很有必要。
3、RAID0+1
從RAID 0+1名稱上我們便可以看出是RAID0與RAID1的結合體。在我們單獨使用RAID 1也會出現類似單獨使用RAID 0那樣的問題,即在同一時間內只能向一塊磁碟寫入數據,不能充分利用所有的資源。為了解決這一問題,我們可以在磁碟鏡像中建立帶區集。因為這種配置方式綜合了帶區集和鏡像的優勢,所以被稱為RAID 0+1。把RAID0和RAID1技術結合起來,數據除分布在多個盤上外,每個盤都有其物理鏡像盤,提供全冗餘能力,允許一個以下磁碟故障,而不影響數據可用性,並具有快速讀/寫能力。RAID0+1要在磁碟鏡像中建立帶區集至少4個硬碟。
face=Verdana> 由於我們此次只是介紹家用台式機如何組建RAID磁碟陣列功能,目前主流的主板也只是提供這三種組建模式,因此其它諸如服務等的高級RAID模式,這里我們將不再過多的介紹。
二、主板晶元組RAID控制晶元介紹
Intel南橋晶元ICH5R、ICH6R集成有SATA-RAID控制器,但僅支持SATA-RAID,不支持PATA-RAID。Intel採用的是橋接技術,就是把SATA-RAID控制器橋接到IDE控制器,因此可以通過BIOS檢測SATA硬碟,並且通過BIOS設置SATA-RAID。當連接SATA硬碟而又不做RAID時,是把SATA硬碟當作PATA硬碟處理的,安裝OS時也不需要驅動軟盤,在OS的設備管理器內也看不到SATA-RAID控制器,看到的是IDE ATAPI控制器,而且多了兩個IDE通道(由兩個SATA通道橋接的)。只有連接兩個SATA硬碟,且作SATA-RAID時才使用SATA-RAID控制器,安裝OS時需要需要驅動軟盤,在OS的設備管理器內可以看到SATA-RAID控制器。安裝ICH5R、ICH6R的RAID IAA驅動後,可以通過IAA程序查看RAID盤的性能參數。
VIA南橋晶元VT8237、VT8237R的SATA-RAID設計與Intel不同,它是把一個SATA-RAID控制器集成到8237南橋內,與南橋里的IDE控制器沒有關系。當然這個SATA-RAID控制器也不見得是原生的SATA模式,因為傳輸速度也沒有達到理想的SATA性能指標。BIOS不負責檢測SATA硬碟,所以在BIOS里看不到SATA硬碟。SATA硬碟的檢測和RAID設置需要通過SATA-RAID控制器自己BootROM(也可以叫SATA-RAID控制器的BIOS)。所以BIOS自檢後會啟動一個BootROM檢測SATA硬碟,檢測到SATA硬碟後就顯示出硬碟信息,此時按快捷鍵Tab就可以進入BootROM設置SATA-RAID。在VIA的VT8237南橋的主板上使用SATA硬碟,無論是否做RAID安裝OS時都需要驅動軟盤,在OS的設備管理器內可以看到SATA-RAID控制器。VIA的晶元也只是集成了SATA-RAID控制器。
NVIDIA的nForce2/ nForce3/ nForce4晶元組的SATA/IDE/RAID處理方式是集Intel和VIA的優點於一身。第一是把SATA/IDE/RAID控制器橋接在一起,在不做RAID時,安裝XP/2000也不需要任何驅動。第二是在BIOS里的SATA硬碟不像Intel那樣需要特別設置,接上SATA硬碟BIOS就可以檢測到。第三是不僅SATA硬碟可以組成RAID,PATA硬碟也可以組成RAID,PATA硬碟與SATA硬碟也可以組成RAID。這給需要RAID的用戶帶來極大的方便,Intel的ICH5R、ICH6R,VIA的VT8237都不支持PATA的IDE RAID。
三、NVIDIA晶元組BIOS設置和RAID設置簡單介紹
nForce系列晶元組的BIOS里有關SATA和RAID的設置選項有兩處,都在Integrated Peripherals(整合周邊)菜單內。
SATA的設置項:Serial-ATA,設定值有[Enabled], [Disabled]。這項的用途是開啟或關閉板載Serial-ATA控制器。使用SATA硬碟必須把此項設置為[Enabled]。如果不使用SATA硬碟可以將此項設置為[Disabled],可以減少佔用的中斷資源。
RAID的設置項在Integrated Peripherals/Onboard Device(板載設備)菜單內,游標移到Onboard Device,按進入如子菜單:RAID Config就是RAID配置選項,游標移到RAID Config,按就進入如RAID配置菜單:
第一項IDE RAID是確定是否設置RAID,設定值有[Enabled], [Disabled]。如果不做RAID,就保持預設值[Disabled],此時下面的選項是不可設置的灰色。
如果做RAID就選擇[Enabled],這時下面的選項才變成可以設置的黃色。IDE RAID下面是4個IDE(PATA)通道,再下面是SATA通道。nForce2晶元組是2個SATA通道,nForce3/4晶元組是4個SATA通道。可以根據你自己的意圖設置,准備用哪個通道的硬碟做RAID,就把那個通道設置為[Enabled]。
設置完成就可退出保存BIOS設置,重新啟動。這里要說明的是,當你設置RAID後,該通道就由RAID控制器管理,BIOS的Standard CMOS Features里看不到做RAID的硬碟了。
BIOS設置後,僅僅是指定那些通道的硬碟作RAID,並沒有完成RAID的組建,前面說過做RAID的磁碟由RAID控制器管理,因此要由RAID控制器的RAID BIOS檢測硬碟,以及設置RAID模式。BIOS啟動自檢後,RAID BIOS啟動檢測做RAID的硬碟,檢測過程在顯示器上顯示,檢測到硬碟後留給用戶幾秒鍾時間,以便用戶按F 1 0 進入RAID BIOS Setup。
nForce晶元組提供的RAID(冗餘磁碟陣列)的模式共有下面四種:
RAID 0:硬碟串列方案,提高硬碟讀寫的速度。
RAID 1:鏡像數據的技術。
RAID 0+1:由RAID 0和RAID 1陣列組成的技術。
Spanning (JBOD):不同容量的硬碟組成為一個大硬碟。
四、操作系統安裝過程介紹
按F10進入RAID BIOS Setup,會出現NVIDIA RAID Utility -- Define a New Array(定義一個新陣列)。默認的設置是:RAID Mode(模式)--Mirroring(鏡像),Striping Block(串列塊)--Optimal(最佳)。
通過這個窗口可以定義一個新陣列,需要設置的項目有:選擇RAID Mode(RAID模式):Mirroring(鏡像)、Striping(串列)、Spanning(捆綁)、Stripe Mirroring(串列鏡像)。
設置Striping Block(串列塊):4 KB至128 KB/Optimal
指定RAID Array(RAID陣列)所使用的磁碟
用戶可以根據自己的需要設置RAID模式,串列塊大小和RAID陣列所使用的磁碟。其中串列塊大小最好用默認的Optimal。RAID陣列所使用的磁碟通過游標鍵→添加。
做RAID的硬碟可以是同一通道的主/從盤,也可以是不同通道的主/從盤,建議使用不同通道的主/從盤,因為不同通道的帶寬寬,速度快。Loc(位置)欄顯示出每個硬碟的通道/控制器(0-1)/主副狀態,其中通道0是PATA,1是SATA;控制器0是主,1是從;M是主盤,S是副盤。分配完RAID陣列磁碟後,按F7。出現清除磁碟數據的提示。按Y清除硬碟的數據,彈出Array List窗口:如果沒有問題,可以按Ctrl-X保存退出,也可以重建已經設置的RAID陣列。至此RAID建立完成,系統重啟,可以安裝OS了。
安裝Windows XP系統,安裝系統需要驅動軟盤,主板附帶的是XP用的,2000的需要自己製作。從光碟機啟動Windows XP系統安裝盤,在進入藍色的提示屏幕時按F6鍵,告訴系統安裝程序:需要另外的存儲設備驅動。當安裝程序拷貝一部分設備驅動後,停下來提示你敲S鍵,指定存儲設備驅動:
系統提示把驅動軟盤放入軟碟機,按提示放入軟盤後,敲回車。系統讀取軟盤後,提示你選擇驅動。nForce的RAID驅動與Intel和VIA的不同,有兩個:NVIDIA RAID CLASS DRIVER和NVIDIA Nforce Storage Controller都要安裝。
第一次選擇NVIDIA RAID CLASS DRIVER,敲回車系統讀入,再返回敲S鍵提示界面,此時再敲S鍵,然後選擇NVIDIA Nforce Storage Controller,敲回車,系統繼續拷貝文件,然後返回到下面界面。
在這個界面里顯示出系統已經找到NVIDIA RAID CLASS DRIVER和NVIDIA Nforce Storage Controller,可以敲回車繼續。
系統從軟盤拷貝所需文件後重啟,開始檢測RAID盤,找到後提示設置硬碟。此時用戶可以建立一個主分區,並格式化,然後系統向硬碟拷貝文件。在系統安裝期間不要取出軟盤,直到安裝完成。
剩餘的磁碟分區等安裝完系統後,我們可以用XP的磁碟管理器分區格式化。用XP的磁碟管理器分區,等於/小於20GB的邏輯盤可以格式化為FAT32格式。大於20GB的格式化為NTF格式。
C. 惠普伺服器磁碟陣列控制器怎麼設置
Raid(Rendant Array of Independent Disk)獨立冗餘磁碟陣列,就是將多個硬碟通過Raid控制器整合成虛擬的單個大容量的硬碟。Raid是伺服器數據容錯模式中採用最普遍的一種,通常都是通過外加Raid卡的方式來實現。Raid的級別有很多種,而各種級別所涉及的原理也不盡相同,在此不再贅述,以惠普642 raid卡為例,詳細介紹陣列卡的配置過程。
1.開機自檢,可以讀到Raid卡的相關信息:Smart Array 642 Controller,緩存為64MB。
D. 陣列卡的緩存大小怎麼看
陣列卡有帶緩存的,也有不帶的,一般有電池的陣列卡都帶緩存。
查看陣列卡緩存,除了在卡上能看到標注和內存晶元外,在linux系統下可以用下面的命令查看:
MegaCli -AdpAllInfo -aALL
E. h755陣列卡緩存
查看陣列卡緩存,除了在卡上能看到標注和內存晶元外,在linux系統下可以用MegaCli-AdpAllInfo-aALL命令查看。
陣列卡有帶緩存的,也有不帶的,一般有電池的陣列卡都帶緩存。
陣列卡的全稱叫磁碟陣列卡是用來做RAID的。磁碟陣列是一種把若干硬磁碟驅動器按照一定要求組成一個整體,整個磁碟陣列由陣列控制器管理的系統。
F. 怎樣打開raid的write cache
1、如果是LSI的硬體RAID卡也就是說RAID卡帶緩存的可以打開write back,這個時候數據寫入有明顯的提升,也就是數據先直接寫入raid卡的緩存等IO空閑時在寫入到硬碟。但是write back有一個不好的地方就是機器突然斷電(RAID卡沒有備份電池)情況下數據會丟失。如果是應用是一些核心數據建議不要開write back,使用write through模式。
2、打開write back後磁碟的disk cache對寫入沒有影響。
G. ibm磁碟陣列怎樣看內部配置
按 F1 進入 UEFI.
選擇「System Settings」.
-「Adapters and UEFI Drivers」-「Please press ENTERto compile the list of drivers」
3.選擇「LSI EFI SAS Driver」.
4.「PciRoot(0x0)/Pci(0x2,0x2)/Pci(0x0,0x0)」.
5.按回車,在出現的界面輸入1.
6.再按回車就可以進入 WebBIOS看內部配置了.
H. 怎麼查raid卡的緩存是cache 還是flash
作用具體體現在讀與寫兩個不同的方面:作為寫,一般存儲陣列只要求數據寫到 Cache 就算完成了寫操作,當寫 Cache 的數據積累到一定程度,陣列才把數據刷到磁碟,這樣可以實現批量的寫入。所以,陣列的寫是非常快速的。至於 Cache 數據的保護,一般都依賴於鏡像與電池 ( 或者是 UPS) 。Cache 在讀數據方面的作用,當所要讀取的數據能在 Cache 中命中的話,將大大減少磁碟尋道所需要的時間,存儲的 Cache 大小對整個 I/O 性能的影響是非常大的。
I. bios如何查看raid卡緩存
bios如何查看raid卡緩存
BIOS中看不到,進入類似於BIOS的RAID卡配置介面才能看到,在電腦剛啟動的時候,一般有提示,讓你按某些組合鍵進入配介面。
緩存(cache),原始意義是指訪問速度比一般隨機存取存儲器(RAM)快的一種高速存儲器,通常它不像系統主存那樣使用DRAM技術,而使用昂貴但較快速的SRAM技術。緩存的設置是所有現代計算機系統發揮高性能的重要因素之一。
J. 請問RAID0陣列里單獨的一塊硬碟拿出來,有方法看見裡面的數據嗎
不能。
RAID0由兩塊或以上硬碟構成,硬碟上的存儲空間條帶化,這些條帶再按順序構成邏輯盤供用戶使用,因此,raid0的空間利用率是100%。因為raid0沒有奇偶校驗,沒有冗餘,不需要進行計算,因此性能非常高,常用於非編和數據處理等應用,也因為沒有冗餘,如果任何一塊成員盤損壞,陣列崩潰,所有數據不能訪問。
一般條帶大小有8k,16k,32k,64k,128k,256k,更大的也有,比較少見,如果邏輯盤存儲的文件大於條帶大小,將會以條帶的大小分布在每塊成員盤上。如果拿出raid0的一塊盤,等於只拿到整個硬碟(邏輯盤,raid0)的1/n(構成raid的盤數),將不能訪問數據。