当前位置:首页 » 操作系统 » linuxraid0

linuxraid0

发布时间: 2022-07-11 00:09:06

1. 如何在linux下做软raid实现方法

磁盘阵列软RAID实例.
前言:raid0, 容量倍增,加速。 raid1, 安全镜像备份。 raid5, 奇偶数据校验保证安全,磁盘利用率(n-1)。
****************************************
1. 准备硬盘分区。
****************************************
raid5 至少需要3快硬盘,我手上只有一块闲置硬盘,就拿它练手。
在一块硬盘上实现raid 是没有意义的,这里仅是为了实验,知道其过程。
分区如下:
主分区 /sdb1, 扩展分区/sdb10 随便干别的事情。
扩展分区/sdb{5..9} 做raid5
----------------------------------------
[root@hjj ~]# fdisk -l /dev/sdb
----------------------------------------

Disk /dev/sdb: 160.0 GB, 160041885696 bytes
255 heads, 63 sectors/track, 19457 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x86ea33f5

Device Boot Start End Blocks Id System
/dev/sdb1 1 3241 26033301 83 Linux
/dev/sdb2 3242 19457 130255020 5 Extended
/dev/sdb5 3242 6482 26033301 fd Linux raid autodetect
/dev/sdb6 6483 9723 26033301 fd Linux raid autodetect
/dev/sdb7 9724 12964 26033301 fd Linux raid autodetect
/dev/sdb8 12965 16205 26033301 fd Linux raid autodetect
/dev/sdb9 16206 19446 26033301 fd Linux raid autodetect
/dev/sdb10 19447 19457 88326 83 Linux

----------------------------------------
[root@hjj ~]# partprobe /dev/sdb
----------------------------------------
重新检测分区要通过, 可能需要重启系统。

****************************************
2. 创建raid5 设备/dev/md0
****************************************
raid 设备文件名,习惯上用md0, md1....等命名
注意: 创建需要内核支持, 选中相应的raid 选项,重编译内核,否则该命令不能通过,错误为invalid parameter
2.1 创建
--------------------------------------------------------------------------------
[root@hjj ~]# mdadm -C /dev/md0 -a yes -l 5 -n 4 -x 1 /dev/sdb{5..9}
--------------------------------------------------------------------------------
mdadm: Defaulting to version 1.2 metadata
解释一下:
-C ---> create
-a ---> autodetected
-l ---> level raid5
-n ---> raid devices 4 (使用)
-x ---> spare devices 1(备用)

给一个参考多硬盘命令
[root@hjj ~]# mdadm -C /dev/md0 -a yes -l 5 -n 3 /dev/sd[bcd]1

2.2: 设备名称查询
[root@hjj ~]# ll /dev/md* -d
drwxr-xr-x 2 root root 60 Nov 7 01:51 /dev/md
brw-rw---- 1 root disk 9, 0 Nov 7 01:52 /dev/md0
2.3: 设备信息查询
----------------------------------------
[root@hjj ~]# mdadm --detail /dev/md0
----------------------------------------
/dev/md0:
Version : 1.2
Creation Time : Thu Nov 7 01:14:01 2013
Raid Level : raid5
Array Size : 78096384 (74.48 GiB 79.97 GB)
Used Dev Size : 26032128 (24.83 GiB 26.66 GB)
Raid Devices : 4
Total Devices : 5
Persistence : Superblock is persistent

Update Time : Thu Nov 7 01:43:21 2013
State : clean, degraded, recovering
Active Devices : 3
Working Devices : 5
Failed Devices : 0
Spare Devices : 2

Layout : left-symmetric
Chunk Size : 512K

Rebuild Status : 63% complete

Name : hjj.localdomain:0 (local to host hjj.localdomain)
UUID : 9dee9c47:58dfe491:5c8db1c6:9686eba5
Events : 25

Number Major Minor RaidDevice State
0 8 21 0 active sync /dev/sdb5
1 8 22 1 active sync /dev/sdb6
2 8 23 2 active sync /dev/sdb7
5 8 24 3 spare rebuilding /dev/sdb8

4 8 25 - spare /dev/sdb9

****************************************
3: 格式化raid 设备(磁盘)
[root@hjj ~]# mkfs -t ext4 /dev/md0
****************************************
mke2fs 1.41.12 (17-May-2010)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=128 blocks, Stripe width=384 blocks
4882432 inodes, 19524096 blocks
976204 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=4294967296
596 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624, 11239424

Writing inode tables: done
Creating journal (32768 blocks):
done
Writing superblocks and filesystem accounting information:
done

This filesystem will be automatically checked every 34 mounts or
180 days, whichever comes first. Use tune2fs -c or -i to override.

****************************************
4. 挂载及使用raid 磁盘
****************************************
[root@hjj ~]# mount /dev/md0 /mnt
[root@hjj ~]# cd /mnt
[root@hjj /mnt]# ls
lost+found

使用raid 设备(虚拟盘)
[root@hjj /mnt]# echo "haha" > abc.txt
[root@hjj /mnt]# cat abc.txt
haha
[root@hjj ~]# df
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/mapper/VolGroup-lv_root
51475068 40659416 8177828 84% /
tmpfs 1015868 224 1015644 1% /dev/shm
/dev/sda1 487652 67236 390720 15% /boot
/dev/mapper/VolGroup-lv_home
97521332 10652080 81892408 12% /home
/dev/md0 76739624 53016 72765408 1% /mnt

****************************************
5. 设置开机启动RAID
****************************************
[root@hjj ~]# mdadm --detail --scan
ARRAY /dev/md0 metadata=1.2 spares=2 name=hjj.localdomain:0 UUID=9dee9c47:58dfe491:5c8db1c6:9686eba5
[root@hjj ~]# mdadm --detail --scan >/etc/mdadm.conf
经以上操作,系统重启时自动命名为md0, 否则会是md127 等等值, 不固定。
[root@hjj ~]# vim /etc/fstab
添加:
/dev/md0 /mnt ext4 defaults 0 0

****************************************
6. 其它:停用设备,插拔磁盘
更详细文档: man mdadm
****************************************
停用raid 盘:
[root@hjj ~]# mdadm --stop /dev/md0
查询
[root@hjj ~]# ll /dev/md* , 无设备

mdadm 还可模拟拔出硬盘,修复硬盘,插入硬盘
[root@hjj ~]# mdadm /dev/md0 --remove /dev/sdb5
验证:
[root@hjj ~]# mdadm --zero-superblock --force /dev/md0
[root@hjj ~]# mdadm /dev/md0 --add /dev/sdb5
验证:

验证方法:

[root@hjj ~]# mdadm --detail /dev/md0

删除该raid 设备, 完整的操作过程如下示例。 比较规范,系统无错误。

当然,不按规范删除也可以。反正你也不要设备上的所有数据了。

mdadm /dev/md0 --fail /dev/sdb5 --remove /dev/sdb5
mdadm /dev/md0 --fail /dev/sdb6 --remove /dev/sdb6
mdadm /dev/md0 --fail /dev/sdb7 --remove /dev/sdb7
mdadm /dev/md0 --fail /dev/sdb8 --remove /dev/sdb8
mdadm /dev/md0 --fail /dev/sdb9 --remove /dev/sdb9

mdadm --remove /dev/md0
mdadm --stop /dev/md0

mdadm --misc --zero-superblock /dev/sdb5
mdadm --misc --zero-superblock /dev/sdb6
mdadm --misc --zero-superblock /dev/sdb7
mdadm --misc --zero-superblock /dev/sdb8
mdadm --misc --zero-superblock /dev/sdb9

即: 先删除RAID中的所有设备,然后停止,删除该RAID即可
为了防止系统启动时候启动raid, 应检查,修改相应的配置。
例如mdadm.conf, fstab 等

2. 在RedHat Linux 5 系统中如何做RAID 0,请各位高手帮忙,步骤详细一点,最好图文并茂,急!

你可以这样做:
1.在linux中创建一个脚本,比如在/home目录下的,打开终端,vi autorun_shell
脚本中内容写:
#!/bin/bash
mount /dev/md0 /mnt/raid1
保存退出,这样在/home目录下就会有autorun_shell这个脚本,用chmod 755 autorun_shell修改执行权限。
2.在/etc/rc.d/rc.local文件中最后一行添加“sh ./home/autorun_shell”
保存退出
这下你重启看看是不是自动挂载了。。。。

3. redhat linux 6.0下如何做raid 0

软raid:
mdadm
-C
/dev/md0
-a
yes
-n
2
-l
0
/dev/sda{7,8}
参数解释:
-n
2
//磁盘数量,不包括热备盘
-C
//创建
-l
//raid级别
-x
//热备盘数量
mdadm
-D
/dev/md0
//查询

4. raid0 在linux上怎么安装

同 Windows ,硬件的主板或者RAID卡设置,之后装系统时加载驱动(有的需要有的不需要)。
如果是软件的,那么需要 Linux 系统支持,建议安装时直接设置 LVM (逻辑卷管理,可以设置软 RAID)。

5. linux磁盘阵列怎么做 raid0

需要在服务器上做的 不是在linux系统里面做
不同的服务器做的方法不太一样 可以根据服务器型号去查

6. 如何在RAID 0下装LINUX

这个似乎不简单,看你的raid0是怎么做的,要是通过主板上的raid芯片实现的,那么必须在安装linux的过程中加载raid芯片的驱动。
建议尝试ubuntu的最新版本,它是驱动最丰富的linux版本。要是无法检测到,那就只能试着做软raid了。

7. linux下怎么查看raid0+1磁盘信息

软件raid:只能通过Linux系统本身来查看
cat /proc/mdstat
可以看到raid级别,状态等信息。
硬件raid: 最佳的办法是通过已安装的raid厂商的管理工具来查看,有cmdline,也有图形界面。如Adaptec公司的硬件卡就可以通过下面的命令进行查看:
# /usr/dpt/raitil -L all
可以看到非常详细的信息。
当然更多情况是没有安装相应的管理工具,只能依靠Linux本身的话一般我知道的是两种方式:
# dmesg |grep -i raid
# cat /proc/scsi/scsi
显示的信息差不多,raid的厂商,型号,级别,但无法查看各块硬盘的信息。
另外经过实际测试,Dell的服务器可以通过命令来显示,而HP、IBM等的服务器通过上面的命令是显示不出的。只能够通过装硬件厂商的管理工具来查看DELL的BMC可以查看。

8. linux raid0怎么做

fdisk 分2个区(2或2的倍数给)
fdisk /dev/sda 分区
mdadm -C /dev/md0 -l 0 -n 2 -x 1 /dev/sda{5,6,7}
意思就是创意一个raid名字叫md0 -l 级别 0 磁盘数量2 备用盘数量1 使用的磁盘 sda{5,6,7}

根据实际小改动就可以

9. 什么是raid,如何在linux系统中实现

应用场景

Raid大家都知道是冗余磁盘的意思(Rendant Arrays of Independent Disks,RAID),可以按业务系统的需要提供高可用性和冗余性,目前市面上比较常见的是通过服务器的raid阵列卡来实现此功能。

通过硬件阵列卡实现raid具有可靠性高,性能好等特点,但是对于一般的企业而言硬件阵列卡固然好,如果大规模应用的话动辄几千上万的费用也不是他们所能承受的,难道就没有既能保证数据安全,又能减少费用支持的IT方案吗?当然有,软raid就可以实现这一需求。

实现步骤

软raid比较依赖操作系统,所以他的劣势也显而易见,需要占用系统资源(主要是CPU资源)。目前在Linux和windows下软raid都比较常见了,Linux是通过mdadm实现的,windows下则在win2003之后通过磁盘管理来实现。

实验环境

一台centos 7.2 VM,主机名分别为host1,host1上挂载两块50G的数据盘,我们的实验就在这两块数据盘上完成。

P.S:需要强调的是生产环境下两块组raid的硬盘必须是同品牌同型号同容量的,否则极容易出现软raid失效的情况。

1.确认操作系统是否安装了mdadm软件

[root@host1 ~]# rpm -qa |grep mdadm
mdadm-3.3.2-7.el7.x86_64

2.对两块数据盘进行分区,并设置分区类型为raid

4.创建md0的配置文件

echoDEVICE/dev/sd{a,b}1>>/etc/mdadm.conf
mdadm-Evs>>/etc/mdadm.conf

mdadm运行时会自动检查/etc/mdadm.conf 文件并尝试自动装配,因此第一次配置raid后可以将信息导入到/etc/mdadm.conf 中。

5.使用/dev/md0

在/dev/md0上创建文件,然后挂载进行使用。

mkfs.ext4/dev/md0

热点内容
医保卡支付密码在哪里可以修改 发布:2024-11-20 15:27:51 浏览:23
java如何删除文件夹 发布:2024-11-20 15:24:40 浏览:385
温十系统配置怎么找到 发布:2024-11-20 15:22:15 浏览:254
centos解压zip 发布:2024-11-20 15:09:52 浏览:144
ftp软件的使用 发布:2024-11-20 14:53:21 浏览:611
手机看wifi密码怎么看 发布:2024-11-20 14:32:39 浏览:794
l2级别安全配置都有哪些配置 发布:2024-11-20 14:31:02 浏览:773
明日之后服务器怎么那么多 发布:2024-11-20 14:29:59 浏览:144
html5开发源码下载 发布:2024-11-20 14:24:52 浏览:216
安卓系统锁了怎么刷机 发布:2024-11-20 14:22:40 浏览:738