linuxiscsi共享存储
1. linux怎么连接iSCSI target
Linux作为免费的操作系统已经广泛应用在各种服务器环境中,下面我和大家分享一下怎样利用CentOS连接iSCSI存储设备。
首先在Centos系统上安装iSCSI-initiator.
一、先执行yum search iscsi-initiator在网让没络源中找到安装包
二、再执行安装命令:yum install iscsi-initiator-utils-devel.x86_64
部署iSCSI 设备,我用的iSCSI产品是iStorage Server,可以直接部署在windows server平台上,具体创建步骤可以查看KernSafe官网。
iStorage Server能够支持多种类型介质转换为iSCSi target,然后部署在局域网中,供服务器或其他客户端使用。
连接iSCSI target,主要命令为iscsiadm。默认iscsi使用端口3260,前绝所以在portal后面可以不加3260.
执行iscsiadm -m discovery 是发现iscsi target。
执行iscsiadm -m node -T (target名称) -p (iscsi地址:3260) -l是登录命令,切记这里是大写-T,而坦悔纳上面发现是小写t,大写T后面接的是target名称。
将最后的-l 改成-u 就会断开与target的连接。
执行iscsiadm -m session 可以查看所有iscsi连接。
执行上面的命令:iscsi -m node -T target名称 -p 地址 --op update -n node.startup -v automatic 就可以设置系统在启动时自动登录。
使用iscsi存储。
登录以后,执行fdisk -l 就会列出所有磁盘包括iscsi存储。
这个存储即为iscsi磁盘,我们可以把它当做普通磁盘来操作,执行fdisk /dev/sda可以将其格式化,创建分区等等。
2. 虚拟机Linux上部署DB2pureScale过程
在Linux 操作系统 中,可在虚拟机上搭建DB2 pureScale,那么搭建的步骤是怎么样的呢?DB2 pureScale又有什么用呢?下面随我一起来了解下Linux系统如何在虚拟机上部署DB2 pureScale。
在虚拟机Linux上部署DB2pureScale实践过程
1、环境准备
硬件环境:3 台 x86-64虚拟机,内存要求 1.5G 或以上(主要针对虚拟机,内存过低会造成数据库实例启动失败)
操作系统:Suse Linux Enterprise Server 11.3
DB2 版本:DB2 v10.5
机器名:node01 node02 node03
IP:192.168.18.201 192.168.18.202 192.168.18.203
网关:192.168.18.2
利用iscsi服务来做共享存储功能,其中node01 作为 iscsi 的 Server,node01、node02和 node03 作为 iscsi Client,这样三台虚拟机上都能看到相同的磁盘了(按照developer workers上的 文章 :非 InfiniBand 环境下搭建 DB2 pureScale,我用DB2 v10.5时启动实例失败,可能10.5做了限制,CF与member在同一台机器启动失败,帮多了一台虚拟机)。
2、操作系统安装:
Node01预留出一块分区,不进行格式化(文件类型为0x83 Linux)做为 pureScale 集群的 Sharing Disk 使用,Node02与Node03跟node01 其它 相同就可,
安装必要的包:
libstdc++(32 位和 64 位库)
glibc(32 位和 64 位库)
cpp
gcc
gcc-c++
kernel-source
binutils
ksh-93u-0.8.1
openssh
ntp
完成SUSE 11 SP3的安装。
验证:检查/lib/moles/3.0.76-0.11-default/build/include/linux有无autoconf.h,如果没有autoconf.h,安装DB2时会报Compiling GPL :.......Failure错误。
解决 方法 :cp –v /usr/src/linux-3.0.76-0.11-obj/x86_64/default/include/generated /lib/moles/3.0.76-0.11-default/build/include/linux
3、添加用户和用户组
三台机器全部执行如下命令(如果不做特殊说明,以#表示root身份登录,以$表示db2inst1身份,以下相同)。
#groupadd -g 1001 db2fadm1
#groupadd -g 1002 db2iadm1
#useradd -g db2fadm1 -u 1001 -m -d /home/db2fenc1 -p db2fenc1 db2fenc1
#useradd -g db2iadm1 -u 1002 -m -d /home/db2inst1 -p db2inst1 db2inst1
#mkdir /root/.ssh
# su - db2inst1 -c "mkdir -p /home/db2inst1/.ssh"
4、配置ssh 信任连接
ssh信任通俗的说就是直接ssh不用输入密码
在/etc/hosts添加另外两台机器的IP地址及机器名(确保3台机器名与ip地址全部出现在hosts文件中)
例如我的机器hosts如下:
127.0.0.1 localhost
192.168.18.201 node01.site node01
192.168.18.202 node02.site node02
192.168.18.203 node03.site node03
node01执行如下命令:
#ssh-keygen -t rsa
#cp -v /root/.ssh/id_rsa.pub /root/.ssh/id01
#scp /root/.ssh/id01 node02:/root/.ssh
#scp /root/.ssh/id01 node03:/root/.ssh
#su - db2inst1
$ssh-keygen -t rsa
$cp -v /home/db2inst1/.ssh/id_rsa.pub /home/db2inst1/.ssh/id01
$scp /home/db2inst1/.ssh/id01 node02:/home/db2inst1/.ssh
$scp /home/db2inst1/.ssh/id01 node03:/home/db2inst1/.ssh
node02执行如下命令:
#ssh-keygen -t rsa
#cp -v /root/.ssh/id_rsa.pub /root/.ssh/id02
#scp /root/.ssh/id02 node01:/root/.ssh/
#scp /root/.ssh/id02 node03:/root/.ssh/
#su - db2inst1
$ssh-keygen -t rsa
$cp -v /home/db2inst1/.ssh/id_rsa.pub /home/db2inst1/.ssh/id02
$scp /home/db2inst1/.ssh/id02 node01:/home/db2inst1/.ssh/
$scp /home/db2inst1/.ssh/id02 node03:/home/db2inst1/.ssh/
node03执行如下命令:
#ssh-keygen -t rsa
#cp -v /root/.ssh/id_rsa.pub /root/.ssh/id03
#scp /root/.ssh/id03 node01:/root/.ssh
#scp /root/.ssh/id03 node02:/root/.ssh
#su - db2inst1
$ssh-keygen -t rsa
$cp -v /home/db2inst1/.ssh/id_rsa.pub /home/db2inst1/.ssh/id03
$scp /home/db2inst1/.ssh/id03 node01:/home/db2inst1/.ssh/
$scp /home/db2inst1/.ssh/id03 node02:/home/db2inst1/.ssh/
分别在node01、node02、node03执行如下命令
#cd /root/.ssh
#cat id01 id02 id03 > authorized_keys
#chmod 600 authorized_keys
#su - db2inst1
$cd /home/db2inst1/.ssh
$ cat id01 id02 id03 > authorized_keys
测试是否配置成功
3台机器分别以root与db2inst1执行:
#ssh node01 ls
#ssh node02 ls
#ssh node03 ls
#su - db2inst1
$ssh node01 ls
$ssh node02 ls
$ssh node03 ls
确保不用输入密码,则配置成功。
5、ISCSI 共享存储配置
Iscsi server端配置(node01上执行):
修改/etc/ietd.conf,添加如下内容:
Target iqn.2014-03.node01.site:scsidisk01
Lun 0 Path=/dev/sda4,Type=fileio
注意:我的未分区硬盘为/dev/sda4,你的可能不一样的@_@~~~~
添加自启动
#chkconfig -a iscsitarget
检查是否成功
#chkconfig -l iscsitarget
结果:iscsitarget 0:off 1:off 2:off 3:on 4:off 5:on 6:off
重启iscsitarget服务
# /etc/init.d/iscsitarget restart
iscsi client端配置(node01、node02、node03执行,):
iscsitarget文件内容如下:
#! /bin/sh
### BEGIN INIT INFO
# Provides: iscsiclsetup
#node02与node03上如果未装iscsitarget需将下下行的$iscsitarget
# Required-Start: $network $syslog $iscsitarget $remote_fs smartd
# Required-Stop:
# Default-Start: 3 5
# Default-Stop: 0 1 2 6
# Description: ISCSI client setup
### END INIT INFO
case "$1" in start)
iscsiadm --mode discoverydb --type sendtargets --portal 192.168.18.201 --discover
iscsiadm --m node --targetname iqn.2014-03.node01.site:scsidisk01 --portal 192.168.18.201:3260 --login
;;
stop)
iscsiadm -m node -T iqn.2014-03.node01.site:scsidisk01 -p 192.168.18.201 --logout
;;
restart) ## Stop the service and regardless of whether it was ## running or not, start it again.
$0 stop
$0 start
;;
*)
Esac
保存后执行:#/etc/init.d/iscsiclient restart
验证iscsiclient是否启动成功:
#fdisk -l
检查有无/dev/sdb出现
6、配置Linux环境变量
/etc/profie.local添加内容
alias sl='tail -f /var/log/messages'
alias fc='fcslogrpt /var/log/messages'
export PATH=/root/bin:/usr/sbin/rsct/bin:/opt/ibm/db2/v10.5/bin:$PATH
export PATH=/usr/lpp/mmfs/bin:$PATH
export DB2USENONIB=TRUE
export DB2_CFS_GPFS_NO_REFRESH_DATA=true
然后执行# . /etc/profile.local,完成后你就可以安装purescale了,我猜测应该是设置了变量DB2USENONIB,使purescale不再要求你强制InfiniBand或万兆网卡,使我等穷人可以有机会玩这种高档、洋气、上档次的数据库。。。
7、DB2 V10.5 的安装:
node01:~/server_t # ./db2_install
DBI1324W Support of the db2_install command is deprecated. For
more information, see the DB2 Information Center.
Default directory for installation of procts - /opt/ibm/db2/V10.5
***********************************************************
Install into default directory (/opt/ibm/db2/V10.5) ? [yes/no]
yes
Specify one of the following keywords to install DB2 procts.
SERVER
CONSV
EXP
CLIENT
RTCL
Enter "help" to redisplay proct names.
Enter "quit" to exit.
***********************************************************
server
***********************************************************
Do you want to install the DB2 pureScale Feature? [yes/no]
Yes
曾经出现的错误:
ERROR: An error occurred while compiling IBM General Parallel File System
(GPFS) Portability Layer (GPL) on host "node01". Return code "2". GPL
compilation log file location "/tmp/compileGPL.log.000". The GPFS file system
cannot be mounted properly until the GPL mole is successfully compiled on
this host. For details, see the specified GPL compilation log. After fixing
the problems shown in the log file, re-run the DB2 installer. For information
regarding the GPFS GPL mole compile, see DB2 Information Center.
Compiling GPL :.......Failure
ERROR: A major error occurred while installing "DB2 Server Edition " on this
computer.
解决方案:
查看错误日志:compileGPL.log.000,为以下内容:
cd /usr/lpp/mmfs/src/config; ./configure --genenvonly; if [ $? -eq 0 ]; then /usr/bin/cpp -P def.mk.proto > ./def.mk; exit $? || exit 1; else exit $?; fi
手工执行时会发现在./configure --genenvonly; 这一步报找不到
/usr/bin/diff: /lib/moles/3.0.76-0.11-default/build/include/linux/autoconf.h: No such file or directory
Kernel source tree does not have the correct autoconf.h file.
See /usr/lpp/mmfs/src/README for further information
手工拷呗一下autoconf.h文件即可
#cp –v /usr/src/linux-3.0.76-0.11-obj/x86_64/default/include/generated/autoconf.h /lib/moles/3.0.76-0.11-default/build/include/linux/
GPFS 文件系统配置与挂载
方法1:使用db2cluster_prepare
node01上执行:
#/opt/ibm/db2/v10.5/instance/db2cluster_prepare -instance_shared_dev /dev/sdb
DBI1446I The db2cluster_prepare command is running.
DB2 installation is being initialized.
Total number of tasks to be performed: 1
Total estimated time for all tasks to be performed: 60 second(s)
Task #1 start
Description: Creating IBM General Parallel File System (GPFS) Cluster and Filesystem
Estimated time 60 second(s)
Task #1 end
The execution completed successfully.
For more information see the DB2 installation log at
"/tmp/db2cluster_prepare.log".
DBI1070I Program db2cluster_prepare completed successfully.
此时df -l查看一下会发现多了一个挂载点
node01:/opt/ibm/db2/V10.5/instance # df -l
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/sda2 19599036 8122392 10481060 44% /
udev 958688 120 958568 1% /dev
tmpfs 958688 76 958612 1% /dev/shm
/dev/sda3 10327940 154460 9648836 2% /home
/dev/db2fs1 15728640 627712 15100928 4% /db2sd_20140401103940
曾经出现报错:
DBI20022E The DB2 installer detected that the variable record "GPFS_CLUSTER" is
defined in the global registry. However, the GPFS cluster does not exist on
host "node01".
Creating IBM General Parallel File System (GPFS) Cluster and Filesystem :.......Failure
查看/tmp/ibm.db2.cluster.GuOypP发现有如下内容报错:
014-04-01-10.26.12.358494+480 I5385E400 LEVEL: Warning
PID : 7469 TID : 139670848014112 PROC : db2cluster
INSTANCE: NODE : 000
HOSTNAME: node01
FUNCTION: DB2 UDB, oper system services, sqloMessage, probe:1
MESSAGE : Cannot obtain registry variables
DATA #1 : Hexmp, 4 bytes
0x00007FFF17631758 : B400 0F87
解决方案:由于此前我在此机器上试过N次db2cluster_prepare,包括V9.8、V10.1,V10.5安装,导致全局注册表变量没有删除干净,使用db2greg -mp
V,GPFS_CLUSTER,NAME,db2cluster_20140403105617.site,-,DB2_CREATED将其删除。
#cp -v /var/db2/global.reg /var/db2/global.reg_20140401
#db2delgreg -delvarrec service= GPFS_CLUSTER
总结 :db2cluster_prepare这个命令失败时
检查iscsi client是否准备好,fdisk -l查看一下是否有/dev/sdb
全局注册表变量是否未删除干净 ,db2greg -mp查看
检查一下是否tsa的domain存在,lsrpdomain,使用rmrpdomain将其删掉,如果其node为活动需先将其node停掉。具体参考tsa相关命令,
检查一下gpfs cluster domain是否未清理干净,如果未清理干净,需要使用将fs、nsd、node清理掉,具体命令参考gpfs信息中心。
方法2:手工挂载GPFS
遇到过使用db2cluster_prepare时无法成功,手工安装(不确定是否遇到了 传说 中的bug)。
创建cluster,不加-filesystem -disk选项:
node01:
#db2cluster -cfs -create -domain mydomain -host node01
#db2cluster -cfs -add -host node02
# db2cluster -cfs -add -host node03
说明:上面如果不出故障当然可以加上-filesystem –disk参数,当然也可以用mmaddnode –N XXX来添加节点
添加许可协议:
提供两种方法
#mmchlicense server --accept -N node01,node02,node03
#/opt/ibm/db2/v10.5/bin/db2cluster -cfs -add -license
创建nsd:任意node执行
编写newNSD文件内容如下
%nsd:
device=/dev/sdb
nsd=nsd1
usage=dataAndMetadata
#mmcrnsd -F /tmp/newNSD (-v no)
如果报mmcrnsd: Disk device sdb refers to an existing NSD,而使用mmlsnsd 又查找不到相应的nsd,添加-v no可以跳过此验证。
#mmlsnsd 查看创建的nsd名称,记下,在第3步时需要用到.
创建Cluster File System并挂载
启动所有node,任意node执行
#mmstartup -a
#mmgetstate -a
确保所有node全部启动成功为active
# mmcrfs -T /db2sd_20140401 db2sd_20140401 nsd1(此处的nsd1为第2步的nsd名称)
#mmmount all -a
--曾经出现的错误:mmstartup -a无响应
,查看日志/var/adm/ras/mmfs.log.previous
Tue Apr 1 22:02:11 CST 2014: runmmfs starting
Removing old /var/adm/ras/mmfs.log.* files:
Unloading moles from /lib/moles/3.0.76-0.11-default/extra
runmmfs: The /lib/moles/3.0.76-0.11-default/extra/mmfslinux.ko kernel extension does not exist.
runmmfs: Unable to verify kernel/mole configuration.
Loading moles from /lib/moles/3.0.76-0.11-default/extra
runmmfs: The /lib/moles/3.0.76-0.11-default/extra/mmfslinux.ko kernel extension does not exist.
runmmfs: Unable to verify kernel/mole configuration.
Tue Apr 1 22:02:11 CST 2014 runmmfs: error in loading or unloading the mmfs kernel extension
Tue Apr 1 22:02:11 CST 2014 runmmfs: stopping GPFS
解决方案:重新编译一下gpfs的源码,因为手工卸载gpfs。
/usr/lpp/mmfs/src/README有详细的编译方法:主要命令方法如下:
#cd /usr/lpp/mmfs/src
#make Autoconfig
#make InstallImages
make InstallImages会在/lib/moles/`uname -r`/extra目录生成3个文件,大功告成.
创建实例
创建实例前:
node02#/opt/ibm/db2/V10.5/instance/db2icrt -cf node01 -cfnet node01
-m node02 -mnet node02 -instance_shared_dir /db2sd_20140401
-tbdev 192.168.18.2 -u db2fenc1 db2inst1
-tbdev 官方解释为:Specifies a shared device path for a device that will act as a tiebreaker in the DB2 pureScale environment to ensure that the integrity of the data is maintained. 通俗的讲就是在member出现故障时,判断哪个member可以恢复服务,穷屌丝们就用网关IP来代替了,只要能 ping 通即可判断为可用。
此时执行:# db2instance -instance db2inst1 -list可以查看
node01:/opt/ibm/db2/V10.5/instance # mmlscluster
GPFS cluster information
========================
GPFS cluster name: db2cluster_20140401103900.site
GPFS cluster id: 6571095102926235332
GPFS UID domain: db2cluster_20140401103900.site
Remote shell command: /var/db2/db2ssh/db2locssh
Remote file command: /var/db2/db2ssh/db2scp
GPFS cluster configuration servers:
-----------------------------------
Primary server: node01.site
Secondary server: node02.site
Node Daemon node name IP address Admin node name Designation
----------------------------------------------------------------------
1 node01.site 192.168.18.201 node01.site quorum-manager
2 node02.site 192.168.18.202 node02.site quorum-manager
曾经出现报错:
错误1、报2632-044、2632-068,此类错误为创建tsa domain时的错误,原因在于虚拟机是拷贝的,不是重新安装的。
解决方法:#/usr/sbin/rsct/install/bin/recfgct
启动实例
node01:$/home/db2inst1/sqllib/adm/db2start
怎么样,报错了吧,应该是SQL1721N
SQL1721N Starting the DB2 database manager failed because of a problem with a configuration file that is needed by RDMA.受打击吧。
你装完了实例启动不了,没关系,这么高档的玩意怎么能让你这么快启动啊。
你得设置两个注册表变量才能用普通网络.
$db2set DB2_SD_SOCKETS_RESTRICTIONS=false
$db2set DB2_CA_TRANSPORT_METHOD=SOCKETS
使用如下命令可以查看CF与member的状态。
#db2instance -instance db2inst1 -list
node01:/home/db2inst1 # db2instance -instance db2inst1 -list
ID TYPE STATE HOME_HOST CURRENT_HOST ALERT PARTITION_NUMBER LOGICAL_PORT NETNAME
-- ---- ----- --------- ------------ ----- ---------------- ------------ -------
0 MEMBER STARTED node02 node02 NO 0 0 node02
128 CF PRIMARY node01 node01 NO - 0 node01
HOSTNAME STATE INSTANCE_STOPPED ALERT
-------- ----- ---------------- -----
node01 ACTIVE NO NO
node02 ACTIVE NO NO
此时你可以使用lssam查看tsa的两个节点的状态。
#lssam
添加成员
将node03添加为另一个member,如果实例没有启动会自动启动实例,所以预先将上一步的两台机器上的db2set执行完毕先。
node01:
#/opt/ibm/db2/v10.5/instance/db2iupdt -d -add -m node03 –mnet node03 db2inst1
#su - db2inst1 -c "db2start member 1"
开启你的purescale之旅
#db2sampl
执行完毕后两台member都可以看到数据库sample,可以同时对库进行操作
3. 海康存储怎样用iscsi连接到linux上
前存储openfiler IP为 192.168.221.99 端口为3260
安装、启动iscsi rpm包 并改为开机自动运行
探测存储服务器
iscsiadm -m discovery -t sendtargets -p 192.168.221.99:3260
挂载目标
iscsiadm -m node -T iqn.2006-01.com.openfiler:tsn.dcb51d324f30 -p 192.168.221.99:3260 -l
fdisk –l 发现本地已经存在这些盘
成功挂载的磁盘配置信息保留在以下目录
卸载iscsi target命令
iscsiadm -m node -T iqn.2006-01.com.openfiler:tsn.0d5438be104f -p 192.168.221.99:3260 –u
其他一些操作命令可以查看iscsiadm的帮助获得
4. 在CentOS7上配置iSCSI
iSCSI使用TCP/IP协议对存储使用的SCSI指令进行封装,使得可通过TCP/IP网络访问持久化存储。本文在CentOS7上对iSCSI的配置和使用进行介绍。
本文中的实验仅涉及一个主机节点和一个存储节点。
虚拟机启动完毕后可使用以下用户登陆:
使用root用户登陆iscsi-disks,使用losetup来创建实验用的存储设备。
Step 1 创建大文件用于支持虚拟存储设备
为了避免Selinux权限问题,建议不要将文件创建在/root目录下。
Step 2 创建loop设备
Step 3 安装iSCSI target软件包并启动服务
Step 4 在targetcli命令行中创建存储设备
注:同一台主机可以创建多个target,每个target包含自己的lun和主机,实现主机组和lun的绑定
如下图中定义了iscsi-disks和linuxha两个target,其中iscsi-disks中的lun0(block/ib_vol1)只允许iscsi-host访问,linuxha中的lun0(block/ha_vol1)只运行ha-host1访问,
Step 5 放通防火墙
如果启用了防火墙,则需要放通以下端口:
Step 1 安装iSCSI initiator软件包
Step 2 修改配置文件/etc/iscsi/initiatorname.iscsi
在其中定义主机Initiator的名字:
此处定义的Initiator名字要和在存储节点中定义ACL时使用的主机名字一致。
Step 3 通过IP发现存储节点
Step 4 从主机发起iscsi登陆
如果之前发现了多个target,此处可用--targetname指定登陆的target。
登陆后可使用fdisk发现新存储设备:
Step 5 使用新存储设备
新的存储设备可以当成普通硬盘使用,如创建文件系统并挂载到主机目录中:
安装iscsi-initiator-utils后,系统新增了两个iscsi相关的服务,分别是iscsi.service和iscsid.service。
真正用于iscsi登陆的服务是iscsi.service,他启动时会同时启动iscsid.service,并且登陆完成后iscsi.service的进程将自动退出,由iscsid.service继续监控iscsi设备的状态。
5. LINUX 如何架设ISCSI服务器
三种存储网络:
DAS:本地存储网络。【本地磁盘】
SAN:存储域网络。
【光纤信道|以太网通道】
NAS:网络系统文件。【普通协议】
Iscsi:scsi
over
tcp/ip上的,物理层:GB以太网卡
数据链路层:MAC
网络层:IP
传输层:3260
共享方式:采用DD的方式新建一个镜像盘,单一设备,完整磁盘,单一分区,LVM,可以是SAN网络。
查看安装:
[root@wmm
~]#
rpm
-aq|grep
scsi-target-utils【服务器端】
scsi-target-utils-1.0.24-2.el6.x86_64
[root@wmm
~]#
rpm
-aq|grep
scsi-initial-utils
[root@wmm
~]#
yum
-y
install
scsi-initial-utils
采用文件镜像作为iscsi-target
[root@wmm
~]#
dd
if=/dev/zero
of=/srv/iscsi/disk1.img
bs=1M
count=500
记录了500+0
的读入
记录了500+0
的写出
524288000字节(524
MB)已复制,13.4097
秒,39.1
MB/秒
[root@wmm
~]#
fdisk
/dev/sdb
WARNING:
DOS-compatible
mode
is
deprecated.
It's
strongly
recommended
to
switch
off
the
mode
(command
'c')
and
change
display
units
to
sectors
(command
'u').
Command
(m
for
help):
n
Command
action
e
extended
p
primary
partition
(1-4)
p
Partition
number
(1-4):
1
First
cylinder
(1-2610,
default
1):
Using
default
value
1
Last
cylinder,
+cylinders
or
+size{K,M,G}
(1-2610,
default
2610):
+1000M
Command
(m
for
help):
wq
The
partition
table
has
been
altered!
Calling
ioctl()
to
re-read
partition
table.
Syncing
disks.
[root@wmm
~]#
partprobe【更新到内核中】
Warning:
WARNING:
the
kernel
failed
to
re-read
the
partition
table
on
/dev/sda
(设备或资源忙).
As
a
result,
it
may
not
reflect
all
of
your
changes
until
after
reboot.
创建LV
[root@wmm
~]#
partprobe
Warning:
WARNING:
the
kernel
failed
to
re-read
the
partition
table
on
/dev/sda
(设备或资源忙).
As
a
result,
it
may
not
reflect
all
of
your
changes
until
after
reboot.
[root@wmm
~]#
pvcreate
/dev/sdb1
Writing
physical
volume
data
to
disk
"/dev/sdb1"
Physical
volume
"/dev/sdb1"
successfully
created
创建VG
[root@wmm
~]#
vgcreate
server
/dev/sdb1
Volume
group
"server"
successfully
created
创建LV
[root@wmm
~]#
lvcreate
-L
1G
-n
iscsi01
server【可以采用500PE】
[root@wmm
~]#
service
iptables
stop
iptables:清除防火墙规则:
[确定]
iptables:将链设置为政策
ACCEPT:nat
mangle
filter
[确定]
iptables:正在卸载模块:
编辑配置文件:
[root@wmm
~]#
vim
/etc/tgt/targets.conf
6. 两台linux服务器想共享一个磁盘分区,怎么做
1、首先打开电脑的虚拟机,再打开物理机的虚拟网卡。
7. Linux Iscsi服务器是什么
网络存储
8. 挂载2个iscsi存储如何配置
最好不要与XP装在一个分区,装到D一. .我推荐你下个UltraISO软件,做一个U盘启动,具体方法如下:在工具栏找到 启动,下拉框中选 写入硬盘映像 ,接下来选你的U盘盘符,写入方式选USB-HDD,等完成后一个启动U盘就做好了。安装的时候,开机时,按F12,不过不同的电脑可能不同,选USB启动。二. 分区问题 我帮你找了个很详细的教程一.挂载点在Linux系统里面,“分区”,被称作“挂载点”,简单明了的说,“挂载点”意思就是:把一部分硬盘容量,“分”成一个文件夹的形式,用来干什么事情。这个文件夹的名字,就叫做:“挂载点”。所以,和Windows有着本质上的超级大的区别,你在任何linux发行版系统里面,绝对不会看到C盘,D盘,E盘这样的,你能看到的,只有“文件夹”形式存在的“挂载点”。在Linux 系统里面,有一些已经定义好,用来干一些事情的挂载点,常见的“挂载点”有:1. Boot大家应该很常见这个英文,是引导的意思。对于Linux来讲,一部分容量,用来“挂载”Boot,就是用于存储系统的引导文件2. / 或者 /ROOT就一个符号,是Linux系统特有的,是“根目录”的意思。根目录,用来存储用户的一些基本配置文件,软件设置文件等等很多3. home“家”的意思,在Linux系统里面,它是用来存储用户的程序,文件,文档等等所有资源。因此,进行“分区”操作的时候,它是要分的很大很大很大的。4. SWAP这个,是Linux和Windows最大的区别了。Windows没这个东西,只有Linux才有。其实它也不是一个“挂载点”,为了菜鸟们理解方便,我这里姑且把它当作一种挂载点。SWAP分区,是让“内存”临时存储文件的专用空间。小知识:对于大部分常见的Linux核心的系统,上述的 2,4.有它们2个“挂载点”,就够了。当然,Linux下还有其他很多“挂载点”,可以进行详细的设置,我说的2和4,只是必须的,一定要有的,最最基础的!没有它们2个挂载点,根本不能继续安装系统的!5. usr用来存放系统自带的,或者通过更新安装的软件的地方。6. tmp临时文件存储地方,大家可以理解为Windows下的:C:\Documents and Settings\Administrator\Local Settings\Temp 目录。^_^7. 自行设置“挂载点”咱们在Windows里面,可以通过“新建文件夹”来存储一类东西,当然在Linux下也行。除了这个方法,你也可以在“分区”的时候,自己设置一个“挂载点”(其实功能就等于建立个专门的地方,存放专门的东西”)其他,还有很多很多。我不一一细说了,下面有张图,里面有各个文件夹对应的功能,存贮的东西。大家都可以在“分区”的过程中,手动“挂载”,设置具体容量。二.Linux系统下,硬盘光驱等设备的命名规则Linux 好像很喜欢“另类”,它对硬盘设备的命名方法,也和Windows有很大区别。在Linux系统里面,你的硬盘设备信息,是专门存储在“dev”这个挂载点里面的。上面我没有提到这个挂载点,大家知道就行了。后面会见到。它的硬盘命名方法是:1. IDE 接口的硬盘,Linux下称为(或者说是显示为):HD2. SATA 硬盘或者 SCSI硬盘,称为: SD3. 光驱,就是 CDROM 了。如果有多个光驱,是按数字命名排列的,比如:CDROM0,CDROM1,CDROM24. 硬盘里面的 Windows下的分区以Ubuntu 8.04以上为例,它已经很好很好的支持 Windows分区类型(FAT32,FAT,NTFS)的读写操作了。你系统安装好后,它就能自动识别这些Windows分区。它们会以“该分区的容量大小+分区卷标”,来标明,比如: 22.5G GAME, 30G System^^^这样。在你系统的“位置”里面,就能看到的。5. 如果你有多硬盘………………刚才说了,在Linux里面,硬盘被分为:HD 和 SD,那么,根据英文26个字母的顺序。第一块硬盘,就是 hda,那么,这块硬盘的第一个挂载点,就是 hda1,以此类推 hda2,hda3^^^刚才说了,多块硬盘,是根据26个字母顺序排的,那么, hdb就是第二块硬盘了。这个应该