當前位置:首頁 » 操作系統 » linuxraid0

linuxraid0

發布時間: 2022-07-11 00:09:06

1. 如何在linux下做軟raid實現方法

磁碟陣列軟RAID實例.
前言:raid0, 容量倍增,加速。 raid1, 安全鏡像備份。 raid5, 奇偶數據校驗保證安全,磁碟利用率(n-1)。
****************************************
1. 准備硬碟分區。
****************************************
raid5 至少需要3快硬碟,我手上只有一塊閑置硬碟,就拿它練手。
在一塊硬碟上實現raid 是沒有意義的,這里僅是為了實驗,知道其過程。
分區如下:
主分區 /sdb1, 擴展分區/sdb10 隨便干別的事情。
擴展分區/sdb{5..9} 做raid5
----------------------------------------
[root@hjj ~]# fdisk -l /dev/sdb
----------------------------------------

Disk /dev/sdb: 160.0 GB, 160041885696 bytes
255 heads, 63 sectors/track, 19457 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x86ea33f5

Device Boot Start End Blocks Id System
/dev/sdb1 1 3241 26033301 83 Linux
/dev/sdb2 3242 19457 130255020 5 Extended
/dev/sdb5 3242 6482 26033301 fd Linux raid autodetect
/dev/sdb6 6483 9723 26033301 fd Linux raid autodetect
/dev/sdb7 9724 12964 26033301 fd Linux raid autodetect
/dev/sdb8 12965 16205 26033301 fd Linux raid autodetect
/dev/sdb9 16206 19446 26033301 fd Linux raid autodetect
/dev/sdb10 19447 19457 88326 83 Linux

----------------------------------------
[root@hjj ~]# partprobe /dev/sdb
----------------------------------------
重新檢測分區要通過, 可能需要重啟系統。

****************************************
2. 創建raid5 設備/dev/md0
****************************************
raid 設備文件名,習慣上用md0, md1....等命名
注意: 創建需要內核支持, 選中相應的raid 選項,重編譯內核,否則該命令不能通過,錯誤為invalid parameter
2.1 創建
--------------------------------------------------------------------------------
[root@hjj ~]# mdadm -C /dev/md0 -a yes -l 5 -n 4 -x 1 /dev/sdb{5..9}
--------------------------------------------------------------------------------
mdadm: Defaulting to version 1.2 metadata
解釋一下:
-C ---> create
-a ---> autodetected
-l ---> level raid5
-n ---> raid devices 4 (使用)
-x ---> spare devices 1(備用)

給一個參考多硬碟命令
[root@hjj ~]# mdadm -C /dev/md0 -a yes -l 5 -n 3 /dev/sd[bcd]1

2.2: 設備名稱查詢
[root@hjj ~]# ll /dev/md* -d
drwxr-xr-x 2 root root 60 Nov 7 01:51 /dev/md
brw-rw---- 1 root disk 9, 0 Nov 7 01:52 /dev/md0
2.3: 設備信息查詢
----------------------------------------
[root@hjj ~]# mdadm --detail /dev/md0
----------------------------------------
/dev/md0:
Version : 1.2
Creation Time : Thu Nov 7 01:14:01 2013
Raid Level : raid5
Array Size : 78096384 (74.48 GiB 79.97 GB)
Used Dev Size : 26032128 (24.83 GiB 26.66 GB)
Raid Devices : 4
Total Devices : 5
Persistence : Superblock is persistent

Update Time : Thu Nov 7 01:43:21 2013
State : clean, degraded, recovering
Active Devices : 3
Working Devices : 5
Failed Devices : 0
Spare Devices : 2

Layout : left-symmetric
Chunk Size : 512K

Rebuild Status : 63% complete

Name : hjj.localdomain:0 (local to host hjj.localdomain)
UUID : 9dee9c47:58dfe491:5c8db1c6:9686eba5
Events : 25

Number Major Minor RaidDevice State
0 8 21 0 active sync /dev/sdb5
1 8 22 1 active sync /dev/sdb6
2 8 23 2 active sync /dev/sdb7
5 8 24 3 spare rebuilding /dev/sdb8

4 8 25 - spare /dev/sdb9

****************************************
3: 格式化raid 設備(磁碟)
[root@hjj ~]# mkfs -t ext4 /dev/md0
****************************************
mke2fs 1.41.12 (17-May-2010)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=128 blocks, Stripe width=384 blocks
4882432 inodes, 19524096 blocks
976204 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=4294967296
596 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624, 11239424

Writing inode tables: done
Creating journal (32768 blocks):
done
Writing superblocks and filesystem accounting information:
done

This filesystem will be automatically checked every 34 mounts or
180 days, whichever comes first. Use tune2fs -c or -i to override.

****************************************
4. 掛載及使用raid 磁碟
****************************************
[root@hjj ~]# mount /dev/md0 /mnt
[root@hjj ~]# cd /mnt
[root@hjj /mnt]# ls
lost+found

使用raid 設備(虛擬盤)
[root@hjj /mnt]# echo "haha" > abc.txt
[root@hjj /mnt]# cat abc.txt
haha
[root@hjj ~]# df
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/mapper/VolGroup-lv_root
51475068 40659416 8177828 84% /
tmpfs 1015868 224 1015644 1% /dev/shm
/dev/sda1 487652 67236 390720 15% /boot
/dev/mapper/VolGroup-lv_home
97521332 10652080 81892408 12% /home
/dev/md0 76739624 53016 72765408 1% /mnt

****************************************
5. 設置開機啟動RAID
****************************************
[root@hjj ~]# mdadm --detail --scan
ARRAY /dev/md0 metadata=1.2 spares=2 name=hjj.localdomain:0 UUID=9dee9c47:58dfe491:5c8db1c6:9686eba5
[root@hjj ~]# mdadm --detail --scan >/etc/mdadm.conf
經以上操作,系統重啟時自動命名為md0, 否則會是md127 等等值, 不固定。
[root@hjj ~]# vim /etc/fstab
添加:
/dev/md0 /mnt ext4 defaults 0 0

****************************************
6. 其它:停用設備,插拔磁碟
更詳細文檔: man mdadm
****************************************
停用raid 盤:
[root@hjj ~]# mdadm --stop /dev/md0
查詢
[root@hjj ~]# ll /dev/md* , 無設備

mdadm 還可模擬拔出硬碟,修復硬碟,插入硬碟
[root@hjj ~]# mdadm /dev/md0 --remove /dev/sdb5
驗證:
[root@hjj ~]# mdadm --zero-superblock --force /dev/md0
[root@hjj ~]# mdadm /dev/md0 --add /dev/sdb5
驗證:

驗證方法:

[root@hjj ~]# mdadm --detail /dev/md0

刪除該raid 設備, 完整的操作過程如下示例。 比較規范,系統無錯誤。

當然,不按規范刪除也可以。反正你也不要設備上的所有數據了。

mdadm /dev/md0 --fail /dev/sdb5 --remove /dev/sdb5
mdadm /dev/md0 --fail /dev/sdb6 --remove /dev/sdb6
mdadm /dev/md0 --fail /dev/sdb7 --remove /dev/sdb7
mdadm /dev/md0 --fail /dev/sdb8 --remove /dev/sdb8
mdadm /dev/md0 --fail /dev/sdb9 --remove /dev/sdb9

mdadm --remove /dev/md0
mdadm --stop /dev/md0

mdadm --misc --zero-superblock /dev/sdb5
mdadm --misc --zero-superblock /dev/sdb6
mdadm --misc --zero-superblock /dev/sdb7
mdadm --misc --zero-superblock /dev/sdb8
mdadm --misc --zero-superblock /dev/sdb9

即: 先刪除RAID中的所有設備,然後停止,刪除該RAID即可
為了防止系統啟動時候啟動raid, 應檢查,修改相應的配置。
例如mdadm.conf, fstab 等

2. 在RedHat Linux 5 系統中如何做RAID 0,請各位高手幫忙,步驟詳細一點,最好圖文並茂,急!

你可以這樣做:
1.在linux中創建一個腳本,比如在/home目錄下的,打開終端,vi autorun_shell
腳本中內容寫:
#!/bin/bash
mount /dev/md0 /mnt/raid1
保存退出,這樣在/home目錄下就會有autorun_shell這個腳本,用chmod 755 autorun_shell修改執行許可權。
2.在/etc/rc.d/rc.local文件中最後一行添加「sh ./home/autorun_shell」
保存退出
這下你重啟看看是不是自動掛載了。。。。

3. redhat linux 6.0下如何做raid 0

軟raid:
mdadm
-C
/dev/md0
-a
yes
-n
2
-l
0
/dev/sda{7,8}
參數解釋:
-n
2
//磁碟數量,不包括熱備盤
-C
//創建
-l
//raid級別
-x
//熱備盤數量
mdadm
-D
/dev/md0
//查詢

4. raid0 在linux上怎麼安裝

同 Windows ,硬體的主板或者RAID卡設置,之後裝系統時載入驅動(有的需要有的不需要)。
如果是軟體的,那麼需要 Linux 系統支持,建議安裝時直接設置 LVM (邏輯卷管理,可以設置軟 RAID)。

5. linux磁碟陣列怎麼做 raid0

需要在伺服器上做的 不是在linux系統裡面做
不同的伺服器做的方法不太一樣 可以根據伺服器型號去查

6. 如何在RAID 0下裝LINUX

這個似乎不簡單,看你的raid0是怎麼做的,要是通過主板上的raid晶元實現的,那麼必須在安裝linux的過程中載入raid晶元的驅動。
建議嘗試ubuntu的最新版本,它是驅動最豐富的linux版本。要是無法檢測到,那就只能試著做軟raid了。

7. linux下怎麼查看raid0+1磁碟信息

軟體raid:只能通過Linux系統本身來查看
cat /proc/mdstat
可以看到raid級別,狀態等信息。
硬體raid: 最佳的辦法是通過已安裝的raid廠商的管理工具來查看,有cmdline,也有圖形界面。如Adaptec公司的硬體卡就可以通過下面的命令進行查看:
# /usr/dpt/raitil -L all
可以看到非常詳細的信息。
當然更多情況是沒有安裝相應的管理工具,只能依靠Linux本身的話一般我知道的是兩種方式:
# dmesg |grep -i raid
# cat /proc/scsi/scsi
顯示的信息差不多,raid的廠商,型號,級別,但無法查看各塊硬碟的信息。
另外經過實際測試,Dell的伺服器可以通過命令來顯示,而HP、IBM等的伺服器通過上面的命令是顯示不出的。只能夠通過裝硬體廠商的管理工具來查看DELL的BMC可以查看。

8. linux raid0怎麼做

fdisk 分2個區(2或2的倍數給)
fdisk /dev/sda 分區
mdadm -C /dev/md0 -l 0 -n 2 -x 1 /dev/sda{5,6,7}
意思就是創意一個raid名字叫md0 -l 級別 0 磁碟數量2 備用盤數量1 使用的磁碟 sda{5,6,7}

根據實際小改動就可以

9. 什麼是raid,如何在linux系統中實現

應用場景

Raid大家都知道是冗餘磁碟的意思(Rendant Arrays of Independent Disks,RAID),可以按業務系統的需要提供高可用性和冗餘性,目前市面上比較常見的是通過伺服器的raid陣列卡來實現此功能。

通過硬體陣列卡實現raid具有可靠性高,性能好等特點,但是對於一般的企業而言硬體陣列卡固然好,如果大規模應用的話動輒幾千上萬的費用也不是他們所能承受的,難道就沒有既能保證數據安全,又能減少費用支持的IT方案嗎?當然有,軟raid就可以實現這一需求。

實現步驟

軟raid比較依賴操作系統,所以他的劣勢也顯而易見,需要佔用系統資源(主要是CPU資源)。目前在Linux和windows下軟raid都比較常見了,Linux是通過mdadm實現的,windows下則在win2003之後通過磁碟管理來實現。

實驗環境

一台centos 7.2 VM,主機名分別為host1,host1上掛載兩塊50G的數據盤,我們的實驗就在這兩塊數據盤上完成。

P.S:需要強調的是生產環境下兩塊組raid的硬碟必須是同品牌同型號同容量的,否則極容易出現軟raid失效的情況。

1.確認操作系統是否安裝了mdadm軟體

[root@host1 ~]# rpm -qa |grep mdadm
mdadm-3.3.2-7.el7.x86_64

2.對兩塊數據盤進行分區,並設置分區類型為raid

4.創建md0的配置文件

echoDEVICE/dev/sd{a,b}1>>/etc/mdadm.conf
mdadm-Evs>>/etc/mdadm.conf

mdadm運行時會自動檢查/etc/mdadm.conf 文件並嘗試自動裝配,因此第一次配置raid後可以將信息導入到/etc/mdadm.conf 中。

5.使用/dev/md0

在/dev/md0上創建文件,然後掛載進行使用。

mkfs.ext4/dev/md0

熱點內容
溫十系統配置怎麼找到 發布:2024-11-20 15:22:15 瀏覽:254
centos解壓zip 發布:2024-11-20 15:09:52 瀏覽:144
ftp軟體的使用 發布:2024-11-20 14:53:21 瀏覽:611
手機看wifi密碼怎麼看 發布:2024-11-20 14:32:39 瀏覽:794
l2級別安全配置都有哪些配置 發布:2024-11-20 14:31:02 瀏覽:773
明日之後伺服器怎麼那麼多 發布:2024-11-20 14:29:59 瀏覽:144
html5開發源碼下載 發布:2024-11-20 14:24:52 瀏覽:216
安卓系統鎖了怎麼刷機 發布:2024-11-20 14:22:40 瀏覽:738
php生成網頁圖片 發布:2024-11-20 14:17:30 瀏覽:968
java編譯servlet 發布:2024-11-20 13:49:48 瀏覽:807