linuxiscsi共享存儲
1. linux怎麼連接iSCSI target
Linux作為免費的操作系統已經廣泛應用在各種伺服器環境中,下面我和大家分享一下怎樣利用CentOS連接iSCSI存儲設備。
首先在Centos系統上安裝iSCSI-initiator.
一、先執行yum search iscsi-initiator在網讓沒絡源中找到安裝包
二、再執行安裝命令:yum install iscsi-initiator-utils-devel.x86_64
部署iSCSI 設備,我用的iSCSI產品是iStorage Server,可以直接部署在windows server平台上,具體創建步驟可以查看KernSafe官網。
iStorage Server能夠支持多種類型介質轉換為iSCSi target,然後部署在區域網中,供伺服器或其他客戶端使用。
連接iSCSI target,主要命令為iscsiadm。默認iscsi使用埠3260,前絕所以在portal後面可以不加3260.
執行iscsiadm -m discovery 是發現iscsi target。
執行iscsiadm -m node -T (target名稱) -p (iscsi地址:3260) -l是登錄命令,切記這里是大寫-T,而坦悔納上面發現是小寫t,大寫T後面接的是target名稱。
將最後的-l 改成-u 就會斷開與target的連接。
執行iscsiadm -m session 可以查看所有iscsi連接。
執行上面的命令:iscsi -m node -T target名稱 -p 地址 --op update -n node.startup -v automatic 就可以設置系統在啟動時自動登錄。
使用iscsi存儲。
登錄以後,執行fdisk -l 就會列出所有磁碟包括iscsi存儲。
這個存儲即為iscsi磁碟,我們可以把它當做普通磁碟來操作,執行fdisk /dev/sda可以將其格式化,創建分區等等。
2. 虛擬機Linux上部署DB2pureScale過程
在Linux 操作系統 中,可在虛擬機上搭建DB2 pureScale,那麼搭建的步驟是怎麼樣的呢?DB2 pureScale又有什麼用呢?下面隨我一起來了解下Linux系統如何在虛擬機上部署DB2 pureScale。
在虛擬機Linux上部署DB2pureScale實踐過程
1、環境准備
硬體環境:3 台 x86-64虛擬機,內存要求 1.5G 或以上(主要針對虛擬機,內存過低會造成資料庫實例啟動失敗)
操作系統:Suse Linux Enterprise Server 11.3
DB2 版本:DB2 v10.5
機器名:node01 node02 node03
IP:192.168.18.201 192.168.18.202 192.168.18.203
網關:192.168.18.2
利用iscsi服務來做共享存儲功能,其中node01 作為 iscsi 的 Server,node01、node02和 node03 作為 iscsi Client,這樣三台虛擬機上都能看到相同的磁碟了(按照developer workers上的 文章 :非 InfiniBand 環境下搭建 DB2 pureScale,我用DB2 v10.5時啟動實例失敗,可能10.5做了限制,CF與member在同一台機器啟動失敗,幫多了一台虛擬機)。
2、操作系統安裝:
Node01預留出一塊分區,不進行格式化(文件類型為0x83 Linux)做為 pureScale 集群的 Sharing Disk 使用,Node02與Node03跟node01 其它 相同就可,
安裝必要的包:
libstdc++(32 位和 64 位庫)
glibc(32 位和 64 位庫)
cpp
gcc
gcc-c++
kernel-source
binutils
ksh-93u-0.8.1
openssh
ntp
完成SUSE 11 SP3的安裝。
驗證:檢查/lib/moles/3.0.76-0.11-default/build/include/linux有無autoconf.h,如果沒有autoconf.h,安裝DB2時會報Compiling GPL :.......Failure錯誤。
解決 方法 :cp –v /usr/src/linux-3.0.76-0.11-obj/x86_64/default/include/generated /lib/moles/3.0.76-0.11-default/build/include/linux
3、添加用戶和用戶組
三台機器全部執行如下命令(如果不做特殊說明,以#表示root身份登錄,以$表示db2inst1身份,以下相同)。
#groupadd -g 1001 db2fadm1
#groupadd -g 1002 db2iadm1
#useradd -g db2fadm1 -u 1001 -m -d /home/db2fenc1 -p db2fenc1 db2fenc1
#useradd -g db2iadm1 -u 1002 -m -d /home/db2inst1 -p db2inst1 db2inst1
#mkdir /root/.ssh
# su - db2inst1 -c "mkdir -p /home/db2inst1/.ssh"
4、配置ssh 信任連接
ssh信任通俗的說就是直接ssh不用輸入密碼
在/etc/hosts添加另外兩台機器的IP地址及機器名(確保3台機器名與ip地址全部出現在hosts文件中)
例如我的機器hosts如下:
127.0.0.1 localhost
192.168.18.201 node01.site node01
192.168.18.202 node02.site node02
192.168.18.203 node03.site node03
node01執行如下命令:
#ssh-keygen -t rsa
#cp -v /root/.ssh/id_rsa.pub /root/.ssh/id01
#scp /root/.ssh/id01 node02:/root/.ssh
#scp /root/.ssh/id01 node03:/root/.ssh
#su - db2inst1
$ssh-keygen -t rsa
$cp -v /home/db2inst1/.ssh/id_rsa.pub /home/db2inst1/.ssh/id01
$scp /home/db2inst1/.ssh/id01 node02:/home/db2inst1/.ssh
$scp /home/db2inst1/.ssh/id01 node03:/home/db2inst1/.ssh
node02執行如下命令:
#ssh-keygen -t rsa
#cp -v /root/.ssh/id_rsa.pub /root/.ssh/id02
#scp /root/.ssh/id02 node01:/root/.ssh/
#scp /root/.ssh/id02 node03:/root/.ssh/
#su - db2inst1
$ssh-keygen -t rsa
$cp -v /home/db2inst1/.ssh/id_rsa.pub /home/db2inst1/.ssh/id02
$scp /home/db2inst1/.ssh/id02 node01:/home/db2inst1/.ssh/
$scp /home/db2inst1/.ssh/id02 node03:/home/db2inst1/.ssh/
node03執行如下命令:
#ssh-keygen -t rsa
#cp -v /root/.ssh/id_rsa.pub /root/.ssh/id03
#scp /root/.ssh/id03 node01:/root/.ssh
#scp /root/.ssh/id03 node02:/root/.ssh
#su - db2inst1
$ssh-keygen -t rsa
$cp -v /home/db2inst1/.ssh/id_rsa.pub /home/db2inst1/.ssh/id03
$scp /home/db2inst1/.ssh/id03 node01:/home/db2inst1/.ssh/
$scp /home/db2inst1/.ssh/id03 node02:/home/db2inst1/.ssh/
分別在node01、node02、node03執行如下命令
#cd /root/.ssh
#cat id01 id02 id03 > authorized_keys
#chmod 600 authorized_keys
#su - db2inst1
$cd /home/db2inst1/.ssh
$ cat id01 id02 id03 > authorized_keys
測試是否配置成功
3台機器分別以root與db2inst1執行:
#ssh node01 ls
#ssh node02 ls
#ssh node03 ls
#su - db2inst1
$ssh node01 ls
$ssh node02 ls
$ssh node03 ls
確保不用輸入密碼,則配置成功。
5、ISCSI 共享存儲配置
Iscsi server端配置(node01上執行):
修改/etc/ietd.conf,添加如下內容:
Target iqn.2014-03.node01.site:scsidisk01
Lun 0 Path=/dev/sda4,Type=fileio
注意:我的未分區硬碟為/dev/sda4,你的可能不一樣的@_@~~~~
添加自啟動
#chkconfig -a iscsitarget
檢查是否成功
#chkconfig -l iscsitarget
結果:iscsitarget 0:off 1:off 2:off 3:on 4:off 5:on 6:off
重啟iscsitarget服務
# /etc/init.d/iscsitarget restart
iscsi client端配置(node01、node02、node03執行,):
iscsitarget文件內容如下:
#! /bin/sh
### BEGIN INIT INFO
# Provides: iscsiclsetup
#node02與node03上如果未裝iscsitarget需將下下行的$iscsitarget
# Required-Start: $network $syslog $iscsitarget $remote_fs smartd
# Required-Stop:
# Default-Start: 3 5
# Default-Stop: 0 1 2 6
# Description: ISCSI client setup
### END INIT INFO
case "$1" in start)
iscsiadm --mode discoverydb --type sendtargets --portal 192.168.18.201 --discover
iscsiadm --m node --targetname iqn.2014-03.node01.site:scsidisk01 --portal 192.168.18.201:3260 --login
;;
stop)
iscsiadm -m node -T iqn.2014-03.node01.site:scsidisk01 -p 192.168.18.201 --logout
;;
restart) ## Stop the service and regardless of whether it was ## running or not, start it again.
$0 stop
$0 start
;;
*)
Esac
保存後執行:#/etc/init.d/iscsiclient restart
驗證iscsiclient是否啟動成功:
#fdisk -l
檢查有無/dev/sdb出現
6、配置Linux環境變數
/etc/profie.local添加內容
alias sl='tail -f /var/log/messages'
alias fc='fcslogrpt /var/log/messages'
export PATH=/root/bin:/usr/sbin/rsct/bin:/opt/ibm/db2/v10.5/bin:$PATH
export PATH=/usr/lpp/mmfs/bin:$PATH
export DB2USENONIB=TRUE
export DB2_CFS_GPFS_NO_REFRESH_DATA=true
然後執行# . /etc/profile.local,完成後你就可以安裝purescale了,我猜測應該是設置了變數DB2USENONIB,使purescale不再要求你強制InfiniBand或萬兆網卡,使我等窮人可以有機會玩這種高檔、洋氣、上檔次的資料庫。。。
7、DB2 V10.5 的安裝:
node01:~/server_t # ./db2_install
DBI1324W Support of the db2_install command is deprecated. For
more information, see the DB2 Information Center.
Default directory for installation of procts - /opt/ibm/db2/V10.5
***********************************************************
Install into default directory (/opt/ibm/db2/V10.5) ? [yes/no]
yes
Specify one of the following keywords to install DB2 procts.
SERVER
CONSV
EXP
CLIENT
RTCL
Enter "help" to redisplay proct names.
Enter "quit" to exit.
***********************************************************
server
***********************************************************
Do you want to install the DB2 pureScale Feature? [yes/no]
Yes
曾經出現的錯誤:
ERROR: An error occurred while compiling IBM General Parallel File System
(GPFS) Portability Layer (GPL) on host "node01". Return code "2". GPL
compilation log file location "/tmp/compileGPL.log.000". The GPFS file system
cannot be mounted properly until the GPL mole is successfully compiled on
this host. For details, see the specified GPL compilation log. After fixing
the problems shown in the log file, re-run the DB2 installer. For information
regarding the GPFS GPL mole compile, see DB2 Information Center.
Compiling GPL :.......Failure
ERROR: A major error occurred while installing "DB2 Server Edition " on this
computer.
解決方案:
查看錯誤日誌:compileGPL.log.000,為以下內容:
cd /usr/lpp/mmfs/src/config; ./configure --genenvonly; if [ $? -eq 0 ]; then /usr/bin/cpp -P def.mk.proto > ./def.mk; exit $? || exit 1; else exit $?; fi
手工執行時會發現在./configure --genenvonly; 這一步報找不到
/usr/bin/diff: /lib/moles/3.0.76-0.11-default/build/include/linux/autoconf.h: No such file or directory
Kernel source tree does not have the correct autoconf.h file.
See /usr/lpp/mmfs/src/README for further information
手工拷唄一下autoconf.h文件即可
#cp –v /usr/src/linux-3.0.76-0.11-obj/x86_64/default/include/generated/autoconf.h /lib/moles/3.0.76-0.11-default/build/include/linux/
GPFS 文件系統配置與掛載
方法1:使用db2cluster_prepare
node01上執行:
#/opt/ibm/db2/v10.5/instance/db2cluster_prepare -instance_shared_dev /dev/sdb
DBI1446I The db2cluster_prepare command is running.
DB2 installation is being initialized.
Total number of tasks to be performed: 1
Total estimated time for all tasks to be performed: 60 second(s)
Task #1 start
Description: Creating IBM General Parallel File System (GPFS) Cluster and Filesystem
Estimated time 60 second(s)
Task #1 end
The execution completed successfully.
For more information see the DB2 installation log at
"/tmp/db2cluster_prepare.log".
DBI1070I Program db2cluster_prepare completed successfully.
此時df -l查看一下會發現多了一個掛載點
node01:/opt/ibm/db2/V10.5/instance # df -l
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/sda2 19599036 8122392 10481060 44% /
udev 958688 120 958568 1% /dev
tmpfs 958688 76 958612 1% /dev/shm
/dev/sda3 10327940 154460 9648836 2% /home
/dev/db2fs1 15728640 627712 15100928 4% /db2sd_20140401103940
曾經出現報錯:
DBI20022E The DB2 installer detected that the variable record "GPFS_CLUSTER" is
defined in the global registry. However, the GPFS cluster does not exist on
host "node01".
Creating IBM General Parallel File System (GPFS) Cluster and Filesystem :.......Failure
查看/tmp/ibm.db2.cluster.GuOypP發現有如下內容報錯:
014-04-01-10.26.12.358494+480 I5385E400 LEVEL: Warning
PID : 7469 TID : 139670848014112 PROC : db2cluster
INSTANCE: NODE : 000
HOSTNAME: node01
FUNCTION: DB2 UDB, oper system services, sqloMessage, probe:1
MESSAGE : Cannot obtain registry variables
DATA #1 : Hexmp, 4 bytes
0x00007FFF17631758 : B400 0F87
解決方案:由於此前我在此機器上試過N次db2cluster_prepare,包括V9.8、V10.1,V10.5安裝,導致全局注冊表變數沒有刪除干凈,使用db2greg -mp
V,GPFS_CLUSTER,NAME,db2cluster_20140403105617.site,-,DB2_CREATED將其刪除。
#cp -v /var/db2/global.reg /var/db2/global.reg_20140401
#db2delgreg -delvarrec service= GPFS_CLUSTER
總結 :db2cluster_prepare這個命令失敗時
檢查iscsi client是否准備好,fdisk -l查看一下是否有/dev/sdb
全局注冊表變數是否未刪除干凈 ,db2greg -mp查看
檢查一下是否tsa的domain存在,lsrpdomain,使用rmrpdomain將其刪掉,如果其node為活動需先將其node停掉。具體參考tsa相關命令,
檢查一下gpfs cluster domain是否未清理干凈,如果未清理干凈,需要使用將fs、nsd、node清理掉,具體命令參考gpfs信息中心。
方法2:手工掛載GPFS
遇到過使用db2cluster_prepare時無法成功,手工安裝(不確定是否遇到了 傳說 中的bug)。
創建cluster,不加-filesystem -disk選項:
node01:
#db2cluster -cfs -create -domain mydomain -host node01
#db2cluster -cfs -add -host node02
# db2cluster -cfs -add -host node03
說明:上面如果不出故障當然可以加上-filesystem –disk參數,當然也可以用mmaddnode –N XXX來添加節點
添加許可協議:
提供兩種方法
#mmchlicense server --accept -N node01,node02,node03
#/opt/ibm/db2/v10.5/bin/db2cluster -cfs -add -license
創建nsd:任意node執行
編寫newNSD文件內容如下
%nsd:
device=/dev/sdb
nsd=nsd1
usage=dataAndMetadata
#mmcrnsd -F /tmp/newNSD (-v no)
如果報mmcrnsd: Disk device sdb refers to an existing NSD,而使用mmlsnsd 又查找不到相應的nsd,添加-v no可以跳過此驗證。
#mmlsnsd 查看創建的nsd名稱,記下,在第3步時需要用到.
創建Cluster File System並掛載
啟動所有node,任意node執行
#mmstartup -a
#mmgetstate -a
確保所有node全部啟動成功為active
# mmcrfs -T /db2sd_20140401 db2sd_20140401 nsd1(此處的nsd1為第2步的nsd名稱)
#mmmount all -a
--曾經出現的錯誤:mmstartup -a無響應
,查看日誌/var/adm/ras/mmfs.log.previous
Tue Apr 1 22:02:11 CST 2014: runmmfs starting
Removing old /var/adm/ras/mmfs.log.* files:
Unloading moles from /lib/moles/3.0.76-0.11-default/extra
runmmfs: The /lib/moles/3.0.76-0.11-default/extra/mmfslinux.ko kernel extension does not exist.
runmmfs: Unable to verify kernel/mole configuration.
Loading moles from /lib/moles/3.0.76-0.11-default/extra
runmmfs: The /lib/moles/3.0.76-0.11-default/extra/mmfslinux.ko kernel extension does not exist.
runmmfs: Unable to verify kernel/mole configuration.
Tue Apr 1 22:02:11 CST 2014 runmmfs: error in loading or unloading the mmfs kernel extension
Tue Apr 1 22:02:11 CST 2014 runmmfs: stopping GPFS
解決方案:重新編譯一下gpfs的源碼,因為手工卸載gpfs。
/usr/lpp/mmfs/src/README有詳細的編譯方法:主要命令方法如下:
#cd /usr/lpp/mmfs/src
#make Autoconfig
#make InstallImages
make InstallImages會在/lib/moles/`uname -r`/extra目錄生成3個文件,大功告成.
創建實例
創建實例前:
node02#/opt/ibm/db2/V10.5/instance/db2icrt -cf node01 -cfnet node01
-m node02 -mnet node02 -instance_shared_dir /db2sd_20140401
-tbdev 192.168.18.2 -u db2fenc1 db2inst1
-tbdev 官方解釋為:Specifies a shared device path for a device that will act as a tiebreaker in the DB2 pureScale environment to ensure that the integrity of the data is maintained. 通俗的講就是在member出現故障時,判斷哪個member可以恢復服務,窮屌絲們就用網關IP來代替了,只要能 ping 通即可判斷為可用。
此時執行:# db2instance -instance db2inst1 -list可以查看
node01:/opt/ibm/db2/V10.5/instance # mmlscluster
GPFS cluster information
========================
GPFS cluster name: db2cluster_20140401103900.site
GPFS cluster id: 6571095102926235332
GPFS UID domain: db2cluster_20140401103900.site
Remote shell command: /var/db2/db2ssh/db2locssh
Remote file command: /var/db2/db2ssh/db2scp
GPFS cluster configuration servers:
-----------------------------------
Primary server: node01.site
Secondary server: node02.site
Node Daemon node name IP address Admin node name Designation
----------------------------------------------------------------------
1 node01.site 192.168.18.201 node01.site quorum-manager
2 node02.site 192.168.18.202 node02.site quorum-manager
曾經出現報錯:
錯誤1、報2632-044、2632-068,此類錯誤為創建tsa domain時的錯誤,原因在於虛擬機是拷貝的,不是重新安裝的。
解決方法:#/usr/sbin/rsct/install/bin/recfgct
啟動實例
node01:$/home/db2inst1/sqllib/adm/db2start
怎麼樣,報錯了吧,應該是SQL1721N
SQL1721N Starting the DB2 database manager failed because of a problem with a configuration file that is needed by RDMA.受打擊吧。
你裝完了實例啟動不了,沒關系,這么高檔的玩意怎麼能讓你這么快啟動啊。
你得設置兩個注冊表變數才能用普通網路.
$db2set DB2_SD_SOCKETS_RESTRICTIONS=false
$db2set DB2_CA_TRANSPORT_METHOD=SOCKETS
使用如下命令可以查看CF與member的狀態。
#db2instance -instance db2inst1 -list
node01:/home/db2inst1 # db2instance -instance db2inst1 -list
ID TYPE STATE HOME_HOST CURRENT_HOST ALERT PARTITION_NUMBER LOGICAL_PORT NETNAME
-- ---- ----- --------- ------------ ----- ---------------- ------------ -------
0 MEMBER STARTED node02 node02 NO 0 0 node02
128 CF PRIMARY node01 node01 NO - 0 node01
HOSTNAME STATE INSTANCE_STOPPED ALERT
-------- ----- ---------------- -----
node01 ACTIVE NO NO
node02 ACTIVE NO NO
此時你可以使用lssam查看tsa的兩個節點的狀態。
#lssam
添加成員
將node03添加為另一個member,如果實例沒有啟動會自動啟動實例,所以預先將上一步的兩台機器上的db2set執行完畢先。
node01:
#/opt/ibm/db2/v10.5/instance/db2iupdt -d -add -m node03 –mnet node03 db2inst1
#su - db2inst1 -c "db2start member 1"
開啟你的purescale之旅
#db2sampl
執行完畢後兩台member都可以看到資料庫sample,可以同時對庫進行操作
3. 海康存儲怎樣用iscsi連接到linux上
前存儲openfiler IP為 192.168.221.99 埠為3260
安裝、啟動iscsi rpm包 並改為開機自動運行
探測存儲伺服器
iscsiadm -m discovery -t sendtargets -p 192.168.221.99:3260
掛載目標
iscsiadm -m node -T iqn.2006-01.com.openfiler:tsn.dcb51d324f30 -p 192.168.221.99:3260 -l
fdisk –l 發現本地已經存在這些盤
成功掛載的磁碟配置信息保留在以下目錄
卸載iscsi target命令
iscsiadm -m node -T iqn.2006-01.com.openfiler:tsn.0d5438be104f -p 192.168.221.99:3260 –u
其他一些操作命令可以查看iscsiadm的幫助獲得
4. 在CentOS7上配置iSCSI
iSCSI使用TCP/IP協議對存儲使用的SCSI指令進行封裝,使得可通過TCP/IP網路訪問持久化存儲。本文在CentOS7上對iSCSI的配置和使用進行介紹。
本文中的實驗僅涉及一個主機節點和一個存儲節點。
虛擬機啟動完畢後可使用以下用戶登陸:
使用root用戶登陸iscsi-disks,使用losetup來創建實驗用的存儲設備。
Step 1 創建大文件用於支持虛擬存儲設備
為了避免Selinux許可權問題,建議不要將文件創建在/root目錄下。
Step 2 創建loop設備
Step 3 安裝iSCSI target軟體包並啟動服務
Step 4 在targetcli命令行中創建存儲設備
註:同一台主機可以創建多個target,每個target包含自己的lun和主機,實現主機組和lun的綁定
如下圖中定義了iscsi-disks和linuxha兩個target,其中iscsi-disks中的lun0(block/ib_vol1)只允許iscsi-host訪問,linuxha中的lun0(block/ha_vol1)只運行ha-host1訪問,
Step 5 放通防火牆
如果啟用了防火牆,則需要放通以下埠:
Step 1 安裝iSCSI initiator軟體包
Step 2 修改配置文件/etc/iscsi/initiatorname.iscsi
在其中定義主機Initiator的名字:
此處定義的Initiator名字要和在存儲節點中定義ACL時使用的主機名字一致。
Step 3 通過IP發現存儲節點
Step 4 從主機發起iscsi登陸
如果之前發現了多個target,此處可用--targetname指定登陸的target。
登陸後可使用fdisk發現新存儲設備:
Step 5 使用新存儲設備
新的存儲設備可以當成普通硬碟使用,如創建文件系統並掛載到主機目錄中:
安裝iscsi-initiator-utils後,系統新增了兩個iscsi相關的服務,分別是iscsi.service和iscsid.service。
真正用於iscsi登陸的服務是iscsi.service,他啟動時會同時啟動iscsid.service,並且登陸完成後iscsi.service的進程將自動退出,由iscsid.service繼續監控iscsi設備的狀態。
5. LINUX 如何架設ISCSI伺服器
三種存儲網路:
DAS:本地存儲網路。【本地磁碟】
SAN:存儲域網路。
【光纖信道|乙太網通道】
NAS:網路系統文件。【普通協議】
Iscsi:scsi
over
tcp/ip上的,物理層:GB乙太網卡
數據鏈路層:MAC
網路層:IP
傳輸層:3260
共享方式:採用DD的方式新建一個鏡像盤,單一設備,完整磁碟,單一分區,LVM,可以是SAN網路。
查看安裝:
[root@wmm
~]#
rpm
-aq|grep
scsi-target-utils【伺服器端】
scsi-target-utils-1.0.24-2.el6.x86_64
[root@wmm
~]#
rpm
-aq|grep
scsi-initial-utils
[root@wmm
~]#
yum
-y
install
scsi-initial-utils
採用文件鏡像作為iscsi-target
[root@wmm
~]#
dd
if=/dev/zero
of=/srv/iscsi/disk1.img
bs=1M
count=500
記錄了500+0
的讀入
記錄了500+0
的寫出
524288000位元組(524
MB)已復制,13.4097
秒,39.1
MB/秒
[root@wmm
~]#
fdisk
/dev/sdb
WARNING:
DOS-compatible
mode
is
deprecated.
It's
strongly
recommended
to
switch
off
the
mode
(command
'c')
and
change
display
units
to
sectors
(command
'u').
Command
(m
for
help):
n
Command
action
e
extended
p
primary
partition
(1-4)
p
Partition
number
(1-4):
1
First
cylinder
(1-2610,
default
1):
Using
default
value
1
Last
cylinder,
+cylinders
or
+size{K,M,G}
(1-2610,
default
2610):
+1000M
Command
(m
for
help):
wq
The
partition
table
has
been
altered!
Calling
ioctl()
to
re-read
partition
table.
Syncing
disks.
[root@wmm
~]#
partprobe【更新到內核中】
Warning:
WARNING:
the
kernel
failed
to
re-read
the
partition
table
on
/dev/sda
(設備或資源忙).
As
a
result,
it
may
not
reflect
all
of
your
changes
until
after
reboot.
創建LV
[root@wmm
~]#
partprobe
Warning:
WARNING:
the
kernel
failed
to
re-read
the
partition
table
on
/dev/sda
(設備或資源忙).
As
a
result,
it
may
not
reflect
all
of
your
changes
until
after
reboot.
[root@wmm
~]#
pvcreate
/dev/sdb1
Writing
physical
volume
data
to
disk
"/dev/sdb1"
Physical
volume
"/dev/sdb1"
successfully
created
創建VG
[root@wmm
~]#
vgcreate
server
/dev/sdb1
Volume
group
"server"
successfully
created
創建LV
[root@wmm
~]#
lvcreate
-L
1G
-n
iscsi01
server【可以採用500PE】
[root@wmm
~]#
service
iptables
stop
iptables:清除防火牆規則:
[確定]
iptables:將鏈設置為政策
ACCEPT:nat
mangle
filter
[確定]
iptables:正在卸載模塊:
編輯配置文件:
[root@wmm
~]#
vim
/etc/tgt/targets.conf
6. 兩台linux伺服器想共享一個磁碟分區,怎麼做
1、首先打開電腦的虛擬機,再打開物理機的虛擬網卡。
7. Linux Iscsi伺服器是什麼
網路存儲
8. 掛載2個iscsi存儲如何配置
最好不要與XP裝在一個分區,裝到D一. .我推薦你下個UltraISO軟體,做一個U盤啟動,具體方法如下:在工具欄找到 啟動,下拉框中選 寫入硬碟映像 ,接下來選你的U盤盤符,寫入方式選USB-HDD,等完成後一個啟動U盤就做好了。安裝的時候,開機時,按F12,不過不同的電腦可能不同,選USB啟動。二. 分區問題 我幫你找了個很詳細的教程一.掛載點在Linux系統裡面,「分區」,被稱作「掛載點」,簡單明了的說,「掛載點」意思就是:把一部分硬碟容量,「分」成一個文件夾的形式,用來干什麼事情。這個文件夾的名字,就叫做:「掛載點」。所以,和Windows有著本質上的超級大的區別,你在任何linux發行版系統裡面,絕對不會看到C盤,D盤,E盤這樣的,你能看到的,只有「文件夾」形式存在的「掛載點」。在Linux 系統裡面,有一些已經定義好,用來干一些事情的掛載點,常見的「掛載點」有:1. Boot大家應該很常見這個英文,是引導的意思。對於Linux來講,一部分容量,用來「掛載」Boot,就是用於存儲系統的引導文件2. / 或者 /ROOT就一個符號,是Linux系統特有的,是「根目錄」的意思。根目錄,用來存儲用戶的一些基本配置文件,軟體設置文件等等很多3. home「家」的意思,在Linux系統裡面,它是用來存儲用戶的程序,文件,文檔等等所有資源。因此,進行「分區」操作的時候,它是要分的很大很大很大的。4. SWAP這個,是Linux和Windows最大的區別了。Windows沒這個東西,只有Linux才有。其實它也不是一個「掛載點」,為了菜鳥們理解方便,我這里姑且把它當作一種掛載點。SWAP分區,是讓「內存」臨時存儲文件的專用空間。小知識:對於大部分常見的Linux核心的系統,上述的 2,4.有它們2個「掛載點」,就夠了。當然,Linux下還有其他很多「掛載點」,可以進行詳細的設置,我說的2和4,只是必須的,一定要有的,最最基礎的!沒有它們2個掛載點,根本不能繼續安裝系統的!5. usr用來存放系統自帶的,或者通過更新安裝的軟體的地方。6. tmp臨時文件存儲地方,大家可以理解為Windows下的:C:\Documents and Settings\Administrator\Local Settings\Temp 目錄。^_^7. 自行設置「掛載點」咱們在Windows裡面,可以通過「新建文件夾」來存儲一類東西,當然在Linux下也行。除了這個方法,你也可以在「分區」的時候,自己設置一個「掛載點」(其實功能就等於建立個專門的地方,存放專門的東西」)其他,還有很多很多。我不一一細說了,下面有張圖,裡面有各個文件夾對應的功能,存貯的東西。大家都可以在「分區」的過程中,手動「掛載」,設置具體容量。二.Linux系統下,硬碟光碟機等設備的命名規則Linux 好像很喜歡「另類」,它對硬碟設備的命名方法,也和Windows有很大區別。在Linux系統裡面,你的硬碟設備信息,是專門存儲在「dev」這個掛載點裡面的。上面我沒有提到這個掛載點,大家知道就行了。後面會見到。它的硬碟命名方法是:1. IDE 介面的硬碟,Linux下稱為(或者說是顯示為):HD2. SATA 硬碟或者 SCSI硬碟,稱為: SD3. 光碟機,就是 CDROM 了。如果有多個光碟機,是按數字命名排列的,比如:CDROM0,CDROM1,CDROM24. 硬碟裡面的 Windows下的分區以Ubuntu 8.04以上為例,它已經很好很好的支持 Windows分區類型(FAT32,FAT,NTFS)的讀寫操作了。你系統安裝好後,它就能自動識別這些Windows分區。它們會以「該分區的容量大小+分區卷標」,來標明,比如: 22.5G GAME, 30G System^^^這樣。在你系統的「位置」裡面,就能看到的。5. 如果你有多硬碟………………剛才說了,在Linux裡面,硬碟被分為:HD 和 SD,那麼,根據英文26個字母的順序。第一塊硬碟,就是 hda,那麼,這塊硬碟的第一個掛載點,就是 hda1,以此類推 hda2,hda3^^^剛才說了,多塊硬碟,是根據26個字母順序排的,那麼, hdb就是第二塊硬碟了。這個應該