ha伺服器搭建
㈠ 前端虛擬化 後端雙存儲HA構建方案
微軟方案不太清楚。
如果用VMWARE方案,可以做Storage HA。
軟體要企業增強版,授權可能比較貴。
你可以到VMWARE網站查找相關資料。
㈡ 求助,RedHat Enterprise 5 linux 做HA的安裝方法,和配置過程
您好,很高興為您解答。
方案思路:
R1和R2是真實存在的伺服器。並且都配置雙網卡。一個連接公網,
一個用於連接心跳線。數據伺服器在後端,用於存放R1或者R2的數據。
V1是虛擬伺服器,做成雙機熱備後,V1就是一個浮動IP。
如若滿意,請點擊右側【採納答案】,如若還有問題,請點擊【追問】
希望我的回答對您有所幫助,望採納!
~
O(∩_∩)O~
㈢ HA架構是什麼
HA架構是共同為客戶機提供網路資源的一組計算機系統。其中每一台提供服務的計算機稱為節點。當一個節點不可用或者不能處理客戶的請求時,該請求會及時轉到另外的可用節點來處理,而這些對於客戶端是透明的,客戶不必關心要使用資源的具體位置,集群系統會自動完成。
基於共享磁碟的HA架構通過共享盤櫃實現集群中各節點的數據共享,包含主伺服器、從伺服器、存儲陣列三種主要設備,以及設備間的心跳連接線。而基於磁碟鏡像的HA架構不包含存儲陣列。集群中兩種伺服器的本地硬碟通過數據鏡像技術,實現集群中各節點之間的數據同步,從而實現集群的功能。
拓展資料:
HA架構軟體是架構在操作系統之上的程序,其主要由守護進程、應用程序代理、管理工具、開發腳本等四部分構成,應用服務系統是為客戶服務的應用系統程序,比如MS sql Server,Oracle,Sybase,DB2 UDB,Exchange,Lotus Notes等應用系統軟體。
㈣ 如何在Linux上使用HAProxy配置HTTP負載均衡系統
TTP負載均衡簡介
HTTP負載均衡是一種網路解決方案,負責在託管相同應用內容的幾台伺服器之間分配進入的HTTP或HTTPS流量。由於在多台可用伺服器之間均衡了應用請求,負載均衡系統就能防止任何應用伺服器變成單一故障點,因而提高了整體的應用可用性和響應能力。它還讓你可以隨著不斷變化的工作負載,輕松地縮小/擴大部署的應用系統的規模,只需添加或刪除額外的應用伺服器。
哪裡使用負載均衡、何時使用?
由於負載均衡系統改進了伺服器的利用率,最大限度地提高了可用性,只要你的伺服器開始面臨繁重負載,或者正為一個較龐大的項目規劃架構,就應該使用它。事先規劃好負載均衡系統的用途是個好習慣。那樣,未來你需要擴展環境規模時,它會證明其用途。
HAProxy是什麼東東?
HAProxy是一種流行的開源負載均衡和代理系統,面向GNU/Linux平台上的TCP/HTTP伺服器。HAProxy採用了單一線程的事件驅動型架構而設計,它能夠輕松地處理10G網卡線路速度,現廣泛應用於許多生產環境中。其功能特性包括:自動檢查健康狀況、可定製的負載均衡演算法、支持HTTPS/SSL以及會話速率限制等。
我們在本教程中要達到什麼樣的目的?
在本教程中,我們將逐步介紹為HTTP網站伺服器配置基於HAProxy的負載均衡系統這個過程。
前提條件
你至少需要一台(最好是兩台)網站伺服器來證實所搭建負載均衡系統的功能。我們假設,後端HTTP網站伺服器已經搭建並運行起來。
將HAProxy安裝到Linux上
就大多數發行版而言,我們可以使用你所用發行版的軟體包管理器來安裝HAProxy。
將HAProxy安裝到Debian上
在Debian中,我們需要為Wheezy添加向後移植功能。為此,請在/etc/apt/sources.list.d中創建一個名為「backports.list」的新文件,其內容如下:
deb http://cdn.debian.net/debian wheezybackports main
更新你的軟體庫數據,並安裝HAProxy。
# apt get update
# apt get install haproxy
將HAProxy安裝到Ubuntu上
# apt get install haproxy
將HAProxy安裝到CentOS和RHEL上
# yum install haproxy
配置HAProxy
在本教程中,我們假設有兩台HTTP網站伺服器已搭建並運行起來,其IP地址分別為192.168.100.2和192.168.100.3。我們還假設,負載均衡系統將在IP地址為192.168.100.4的那台伺服器處進行配置。
為了讓HAProxy發揮功用,你需要更改/etc/haproxy/haproxy.cfg中的幾個項目。這些變更在本章節中予以描述。萬一某個配置對不同的GNU/Linux發行版而言有所不同,會在相應段落中加以註明。
1. 配置日誌功能
你首先要做的工作之一就是,為你的HAProxy建立合適的日誌功能,這對將來進行調試大有用處。日誌配置內容位於/etc/haproxy/haproxy.cfg的global部分。下面這些是針對特定發行版的指令,用於為HAProxy配置日誌。
CentOS或RHEL:
要想在CentOS/RHEL上啟用日誌功能,把:
log 127.0.0.1 local2
換成:
log 127.0.0.1 local0
下一步,在/var/log中為HAProxy創建單獨的日誌文件。為此,我們需要改動當前的rsyslog配置。為了讓配置簡單而清楚,我們將在/etc/rsyslog.d/中創建一個名為haproxy.conf的新文件,其內容如下。
$ModLoad imudp
$UDPServerRun 514
$template Haproxy,"%msg%\n"
local0.=info /var/log/haproxy.log;Haproxy
local0.notice /var/log/haproxystatus.log;Haproxy
local0.* ~
該配置將把基於$template的所有HAProxy消息隔離到/var/log中的日誌文件。現在,重啟rsyslog,讓變更內容生效。
# service rsyslog restart
Debian或Ubuntu:
要想在Debian或Ubuntu上為HAProxy啟用日誌功能,把:
log /dev/log local0
log /dev/log local1 notice
換成:
log 127.0.0.1 local0
下一步,為HAProxy配置單獨的日誌文件,編輯/etc/rsyslog.d/中一個名為haproxy.conf的文件(或者Debian中的49-haproxy.conf),其內容如下。
$ModLoad imudp
$UDPServerRun 514
$template Haproxy,"%msg%\n"
local0.=info /var/log/haproxy.log;Haproxy
local0.notice /var/log/haproxystatus.log;Haproxy
local0.* ~
該配置將把基於$template的所有HAProxy消息隔離到/var/log中的日誌文件。現在,重啟rsyslog,讓變更內容生效。
# service rsyslog restart
2. 設置默認值
下一步是為HAProxy設置默認變數。找到/etc/haproxy/haproxy.cfg中的defaults部分,把它換成下列配置。
log global
mode http
option httplog
option dontlognull
retries 3
option redispatch
maxconn 20000
contimeout 5000
clitimeout 50000
srvtimeout 50000
上述配置推薦HTTP負載均衡器使用,但可能不是最適合你環境的解決方案。如果那樣,請參閱HAProxy參考手冊頁,進行適當的改動和調整。
3. 網站伺服器集群的配置
網站伺服器集群(Webfarm)的配置定義了可用的HTTP伺服器集群。我們所建負載均衡系統的大部分設置都將放在這里。現在,我們將創建一些基本的配置,我們的節點將在這里加以定義。把從frontend部分到文件末尾的所有配置換成下列代碼:
listen webfarm *:80
mode http
stats enable
stats uri /haproxy?stats
stats realm Haproxy\ Statistics
stats auth haproxy:stats
balance roundrobin
cookie LBN insert indirect nocache
option httpclose
option forwardfor
server web01 192.168.100.2:80 cookie node1 check
server web02 192.168.100.3:80 cookie node2 check
「listen webfarm *:80」這一行定義了我們的負載均衡系統將偵聽哪些介面。出於本教程的需要,我將該值設為「*」,這讓負載均衡系統偵聽我們的所有介面。在實際場景下,這可能不合意,應該換成可從互聯網來訪問的某個介面。
stats enable
stats uri /haproxy?stats
stats realm Haproxy\ Statistics
stats auth haproxy:stats
上述設置聲明,可以在http://<load-balancer-IP>/haproxy?stats處訪問負載均衡系統的統計數字。這種訪問由簡單的HTTP驗證以及登錄名「haproxy」和密碼「stats」來確保安全。這些設置應該換成你自己的登錄信息。如果你不想讓這些統計數字被人看到,那麼可以完全禁用它們。
下面是HAProxy統計數字的一個例子。
「balance roundrobin」這一行定義了我們將使用哪種類型的負載均衡。在本教程中,我們將使用簡單的輪叫調度演算法,這對HTTP負載均衡來說完全綽綽有餘。HAProxy還提供了其他類型的負載均衡:
•leastconn:連接數最少的伺服器優先接收連接。
•source:對源IP地址進行哈希處理,用運行中伺服器的總權重除以哈希值,即可決定哪台伺服器將接收請求。
•uri:URI的左邊部分(問號前面)經哈希處理,用運行中伺服器的總權重除以哈希值。所得結果決定哪台伺服器將接收請求。
•url_param:變數中指定的URL參數將在每個HTTP GET請求的查詢串中進行查詢。你基本上可以將使用蓄意製作的URL(crafted URL)的請求鎖定於特定的負載均衡節點。
•hdr(name):HTTP頭<name> 將在每個HTTP請求中進行查詢,被定向到特定節點。
「cookie LBN insert indirect nocache」這一行讓我們的負載均衡系統存儲持久性cookie,這讓我們得以准確查明集群中的哪個節點用於某一個會話。這些節點cookie將與指定的名稱一並存儲起來。在我們這個例子中,我使用了「LBN」,但你可以指定自己喜歡的任意名稱。節點將為該cookie把字元串作為一個值而存儲起來。
server web01 192.168.100.2:80 cookie node1 check
server web02 192.168.100.3:80 cookie node2 check
上述部分對網站伺服器節點集群進行了定義。每台伺服器都用內部名稱(比如web01和web02)、IP地址和獨特的cookie串來表示。cookie串可以定義為你需要的任何名稱。我使用了簡單的node1、node2 ... node(n)。
啟動HAProxy
你完成了配置工作後,可以啟動HAProxy,驗證一切按預期運行。
在Centos/RHEL上啟動HAProxy
使用下列指令,讓HAProxy能夠在系統啟動後啟動,並打開它:
# chkconfig haproxy on
# service haproxy start
當然,別忘了啟用防火牆中的埠80,如下所示。
CentOS/RHEL 7上的防火牆:
# firewallcmd permanent zone=public addport=80/tcp
# firewallcmd reload
CentOS/RHEL 6上的防火牆:
把下面這一行添加到/etc/sysconfig/iptables中的這部分「:OUTPUT ACCEPT」:
A INPUT m state state NEW m tcp p tcp dport 80 j ACCEPT
然後重啟iptables:
# service iptables restart
在Debian上啟動HAProxy
使用下列指令啟動HAProxy:
# service haproxy start
別忘了啟用防火牆中的埠80,為此把下面這一行添加到/etc/iptables.up.rules:
A INPUT p tcp dport 80 j ACCEPT
在Ubuntu上啟動HAProxy
讓HAProxy能夠在系統啟動後啟動,只要在/etc/default/haproxy中將「ENABLED」選項設為「1」:
ENABLED=1
啟動HAProxy:
# service haproxy start
然後啟用防火牆中的埠80:
# ufw allow 80
測試HAProxy
為了檢查HAproxy是否在正常工作,我們可以執行下列步驟:
首先,用下列內容准備好test.php文件:
<?php
header('Content-Type: text/plain');
echo "Server IP: ".$_SERVER['SERVER_ADDR'];
echo "\nX-Forwarded-for: ".$_SERVER['HTTP_X_FORWARDED_FOR'];
?>
該PHP文件將告訴我們哪台伺服器(即負載均衡系統)轉發請求,哪台後端網站伺服器實際處理請求。
把該PHP文件放到這兩台後端網站伺服器的根目錄下。現在,使用curl命令,從負載均衡系統(192.168.100.4)提取這個PHP文件。
$ curl http://192.168.100.4/test.php
我們多次運行這個命令時,應該會看到下面兩個輸出交替出現(由於輪叫調度演算法)。
Server IP: 192.168.100.2
X-Forwarded-for: 192.168.100.4
Server IP: 192.168.100.3
X-Forwarded-for: 192.168.100.4
如果我們停止這兩台後端網站伺服器中的其中一台,curl命令應該仍會執行,將請求定向到另一台可用的網站伺服器。
結束語
至此,你應該有了一套完全實用的負載均衡系統,能夠在輪叫循環模式下為你的網站節點提供請求。與往常一樣,你可以隨意更改配置,讓它更適合自己的基礎設施。希望本教程幫助你讓自己的網站項目具有更強的抗壓力和更高的可用性。
正如大家已經注意到的那樣,本教程所含的設置適用於僅僅一套負載均衡系統。這意味著,我們把一個單一故障點換成了另一個單一故障點。在實際場景下,你應該部署至少兩套或三套負載均衡系統,以防範可能出現的任何故障,但這不在本教程的討論范圍之內。
㈤ 一個架構問題。兩台物理伺服器做HA,資料庫比較小,所以想要使用VMware在每一台上分別作應用和資料庫。
這些沒必要過多的糾結,Esxi 的HA技術主要也是主要集中在這里。
其次配置vSphere 為觸發預警機制,當故障發生時用郵件推送到管理員。
另外:其實你最關注的應該是存儲層的問題,存儲層的HA更加重要,也是Esxi HA運行的基礎。
㈥ 什麼是伺服器的「HA部署」「HA」是什麼的簡稱
HA是High Availability的簡稱。國內譯成雙機熱備部署方案。 這個顧名思義就是:高可用性。 意思是為了減少系統停工時間,最大限度地保持服務的高度可用性。
㈦ linux實現HA有幾種方法
【實驗配置環境】
伺服器系統:CentOS-5.6
LVS主節點(lvs-master):192.168.2.250(eth0) 心跳直連介面:192.168.1.250(eth1)
LVS備節點(lvs-backup):192.168.2.251(eth0) 心跳直連介面:192.168.1.251(eth1)
Web Server-1:192.168.2.252
Web Server-2:192.168.2.253
VIP(虛擬ip):192.168.2.254
註:4台伺服器已經配置好LNMP(Linux+Nginx+PHP(FastCGI模式)+mysql)網站運行環境,當然使用apache也可以。這里主備節點也當作真實伺服器使用,所以也配置了網站環境。
本文配置拓撲圖:
主備調度器eth1介面使用交叉線相連(理論上是這樣)
線序為: 一頭為568A標准:白綠,綠;白橙,藍;白藍,橙;白棕,棕
另一頭為568B標准:白橙,橙;白綠,藍;白藍,綠;白棕,棕
在LVS主節點和備節點的/etc/hosts中加入以下內容:
#vim /etc/hosts
192.168.2.250 lvs-master
192.168.2.251 lvs-backup
修改主機名:
# vim /etc/sysconfig/network
NETWORKING=yes
NETWORKING_IPV6=no
hostname=lvs-master
GATEWAY=192.168.2.1
# vim /etc/hosts
# Do not remove the following line, or various programs
# that require network functionality will fail.
127.0.0.1 lvs-master localhost.localdomain localhost
::1 localhost6.localdomain6 localhost6
這2個文件都要修改,修改完後重啟生效,備份機修改方法一樣,不在重述。
【下載軟體】
[libnet]
wget http://search.cpan.org/CPAN/authors/id/G/GB/GBARR/libnet-1.22.tar.gz
[ipvsadm]
wget http://www.linuxvirtualserver.org/software/kernel-2.6/ipvsadm-1.24.tar.gz
[Heartbeat]
wget http://hg.linux-ha.org/heartbeat-STABLE_3_0/archive/STABLE-3.0.4.tar.bz2
[Cluster Glue]
wget http://hg.linux-ha.org/glue/archive/glue-1.0.7.tar.bz2
[Resource Agents]
wget https://download.github.com/ClusterLabs-resource-agents-agents-1.0.4-0-gc06b6f3.tar.gz
一、 配置LVS主節點(lvs-master)
1. 安裝libnet
# tar zxvf libnet-1.1.2.2.tar.gz
# cd libnet
# ./configure
# make && make install
# cd ..
2. 安裝ipvsadm
# yum install kernel-devel //安裝對應內核的kernel-devel
# tar zxvf ipvsadm-1.24.tar.gz
# cd ipvsadm-1.24
# ln -s /usr/src/kernels/`ls /usr/src/kernels/` /usr/src/linux //將當前使用內核連接到/usr/src/linux
# make && make install
# cd..
3. 安裝Heartbeat
3.1 確認系統已經安裝以下軟體(系統光碟中有)
libxslt、libxslt-devel、libgcrypt-devel、autoconf、automake、pkgconfig、libgpg-error-devel、libtool、sgml-common、opensp、openjade、xml-common、docbook-dtds、docbook-style
如果在編譯安裝過程中出錯,很有可能是因為缺少了相關的軟體包
3.2 安裝glue
# groupadd haclient
# useradd -g haclient -M -s /sbin/nologin hacluster
# tar jxvf glue-1.0.7.tar.bz2
# cd Reusable-Cluster-Components-glue--glue-1.0.7/
# ./autogen.sh
# ./configure
# make && make install
# cd ..
3.3 安裝 agents
# tar zxvf ClusterLabs-resource-agents-agents-1.0.4-0-gc06b6f3.tar.gz
# cd ClusterLabs-resource-agents-c06b6f3/
# ./autogen.sh
# ./configure
# make && make install
# cd..
3.4 安裝Heartbeat
# tar jxvf Heartbeat-3-0-STABLE-3.0.4.tar.bz2
# cd Heartbeat-3-0-STABLE-3.0.4
# ./ConfigureMe configure
# gmake && make install
# cd..
4. 配置lvs啟動腳本
本實驗採用的是lvs-DR模式,該模式的特點是客戶端的請求從主/備節點進入分配到web server,然後web server的響應是直接交付給客戶端的。
# vim /etc/init.d/lvs
#!/bin/sh
#chkconfig: 2345 20 80
#description: start_lvs_of_dr
VIP1=192.168.2.254
RIP1=192.168.2.250
RIP2=192.168.2.251
RIP3=192.168.2.252
RIP4=192.168.2.253
./etc/rc.d/init.d/functions
case "$1" in
start)
echo "開啟LVS DirectorServer..."
#設置虛擬IP地址
#LVS啟動時添加VIP的網口eth0:0
/sbin/ifconfig eth0:0 $VIP1 broadcast $VIP1 netmask 255.255.255.255 up
/sbin/route add -host $VIP1 dev eth0:0
#清除IPVS表
/sbin/ipvsadm -C
#設置LVS
/sbin/ipvsadm -A -t $VIP1:80 -s lc
/sbin/ipvsadm -a -t $VIP1:80 -r $RIP1:80 -g
/sbin/ipvsadm -a -t $VIP1:80 -r $RIP2:80 -g
/sbin/ipvsadm -a -t $VIP1:80 -r $RIP3:80 –g
/sbin/ipvsadm -a -t $VIP1:80 -r $RIP4:80 -g
#使用ipvsadm來轉發客戶端請求。-s lc為最小連接數演算法,-g是採用DR模式。有多少RIP就添加幾條記錄。
#啟動LVS
/sbin/ipvsadm
;;
stop)
echo "停止LVS DirectorServer..."
#關閉時清除ipvsadm表
/sbin/ipvsadm –C
;;
*)
echo "Usage: $0 {start|stop}"
exit 1
esac
註:這個腳本不要使用chkconfig管理,放入/etc/init.d內即可。
5. 安裝ldirectord相關組件
默認安裝完上面的三個軟體包之後,ldirectord已經安裝到系統中,默認路徑在 /usr/etc/ ,由於ldirectord是由perl語言編寫的,所以必須安裝相關的軟體包:Socket6、libwww-perl、URI、MailTools、HTML-Parser
# yum -y install perl-Socket6 perl-libwww-perl perl-URI perl-MailTools perl-HTML-Parser
也可以在http://search.cpan.org/網站下載相關軟體包安裝
安裝方法:
# perl Makefile.PL
# make && make install
6. 配置heartbeat
# cp -a /usr/etc/ha.d/ /etc/
# rm -fr /usr/etc/ha.d/
# ln -s /etc/ha.d/ /usr/etc/
# cp /usr/share/doc/haresources /etc/ha.d/
# cp /usr/share/doc/authkeys /etc/ha.d/
# cp /usr/share/doc/ha.cf /etc/ha.d/
# chmod 600 /etc/ha.d/authkeys //這個文件的許可權必須是600
6.1 修改配置文件
6.1.1 authkeys文件配置(authkeys文件的作用是用來設置心跳信息的加密方式)
vim /etc/ha.d/authkeys
auth 1
1 crc
#2 sha1 HI!
#3 md5 Hello!
此設置是使用crc循環冗餘校驗,不採用加密的方式。
6.1.2 ha.cf為heartbeat的主配置文件,修改下面配置。
# vim /etc/ha.d/ha.cf
#日誌文件位置
logfile /var/log/ha-log
#指定主備伺服器多久發送一次心跳
keepalive 2
#指定30秒沒有收到對方心跳就認為對方已經down機
deadtime 30
#10秒沒有收到心跳,便發出警報。
warntime 10
#對方DOWN後120秒重新檢測一次。
initdead 120
#指定監聽埠
udpport 694
#心跳監聽網口,這里為eth1
bcast eth1 //去掉後面#linux
#備份機的心跳線介面與介面IP
ucast eth1 192.168.1.251
#主節點恢復後,自動收回資源。
auto_failback on
#指定主備伺服器的主機名稱,即在hosts文件中指定的。第一個node為主伺服器,第二個node為備伺服器。
node lvs-master //伺服器的主機名
node lvs-backup
#當192.168.2.1、192.168.2.2這兩個IP都不能ping通時,對方即開始接管資源。
ping_group group1 192.168.2.1 192.168.2.2
#啟用ipfail腳本
respawn root /usr/lib/heartbeat/ipfail
#指定運行ipfail的用戶。
apiauth ipfail gid=root uid=root
6.1.3 haresources文件配置,這個文件是指定虛擬IP和改主機控制的腳本。
# vim /etc/ha.d/haresources
lvs-master 192.168.2.254 lvs ldirectord
// master.lvs.net可為主節點主機名,192.168.2.254為虛擬IP
6.1.4 ldirectord.cf是ldirectord進程的配置文件,該進程用來監視web server的運行狀況,如果web server不能響應請求則把它排除在轉發列表外。
復制安裝文件ldirectord目錄上的ldirectord.cf 到/etc/ha.d/conf下,如果找不到可以查找一下:find / -name ldirectord.cf
# mkdir /etc/ha.d/conf
# cp ldirectord.cf /etc/ha.d/conf
# vim /etc/ha.d/conf/ldirectord.cf
# Global Directives
#設置真實web server的超時時間
checktimeout=30
#監視真實web server的時間間隔
checkinterval=10
#如全部真實web server失敗,則轉發至本地
fallback=127.0.0.1:80
#改變配置文件內容,不需要重新ldirectord
autoreload=yes
#指定日誌位置
logfile="/var/log/ldirectord.log"
quiescent=no
# A sample virual with a fallback that will override the gobal setting
#指定虛擬IP
virtual=192.168.2.254:80
#指定真實web server IP及監聽埠
real=192.168.2.250:80 gate
real=192.168.2.251:80 gate
real=192.168.2.252:80 gate
real=192.168.2.253:80 gate
fallback=127.0.0.1:80 gate
service=http
#指定轉發演算法
scheler=lc //這里的演算法要和LVS腳本的演算法一樣
protocol=tcp
#監視VIP伺服器的方法
checktype=negotiate
checkport=80
#監聽測試頁面名稱,這個頁面放入真實web server web服務的根目錄
request="lvs_testpage.html"
#指定測試頁面返回內容
receive="test Page"
virtualhost= lvstest.net
配置文件中的lvs_testpage.html必須存在網站根目錄下,校驗一下配置:
# ldirectord -d /etc/ha.d/conf/ldirectord.cf start //按Ctrl+C結束
# cp /etc/ha.d/shellfuncs /usr/lib/ocf/resource.d/heartbeat/.ocf-shellfuncs
以上lvs和heartbeat配置完成。
LVS備節點(lvs-backup)的配置和LVS主節點(lvs-master)完全一樣。
只是在/etc/ha.d/ha.cf中「ucast eth1 192.168.1.251」此配置地址不一樣。
二、配置真實web server腳本
在每台web server的/etc/init.d目錄下放置realserver腳本,這里主備節點同時也作為web server使用。
# vim /etc/init.d/realserver
#!/bin/bash
# chkconfig: 2345 20 80
# description: lvs_dr_realserver
#指定虛擬IP
VIP=192.168.2.254
host=`/bin/hostname`
case "$1" in
start)
# Start LVS-DR real server on this machine.
/sbin/ifconfig lo down
/sbin/ifconfig lo up
#修改相關內核參數
echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
/sbin/ifconfig lo:0 $VIP netmask 255.255.255.255 up
/sbin/route add -host $VIP dev lo:0
;;
stop)
# Stop LVS-DR real server loopback device(s).
/sbin/ifconfig lo:0 down
;;
status)
# Status of LVS-DR real server.
islothere=`/sbin/ifconfig lo:0 | grep $VIP`
isrothere=`netstat -rn | grep "lo" | grep $VIP`
if [ ! "$islothere" -o ! "$isrothere" ];
then
# Either the route or the lo:0 device
# not found.
echo "LVS-DR real server Stopped."
else
echo "LVS-DR Running."
fi
;;
*)
# Invalid entry.
echo "$0: Usage: $0 {start|status|stop}"
exit 1
;;
esac
# chmod +x /etc/init.d/lvs
# chmod +x /etc/init.d/realserver
# service heartbeat start //主備LVS調度器上執行
# /etc/init.d/lvs start //主備LVS調度器上執行
# /etc/init.d/realserver start //真實web伺服器上執行
# chkconfig --level 35 heartbeat on
# echo 「/etc/init.d/lvs start」 >> /etc/rc.local //開機啟動
# echo 「/etc/init.d/realserver start」 >> /etc/rc.local //開機啟動
三、測試
配置我已經測試過了,但是不同系統環境可能會出一些意料之外的事情。
㈧ 搭建Hadoop集群,一個月6T的數量需要幾台伺服器
最好是兩個做成HA。
㈨ 雲伺服器怎麼和本地伺服器做ha
[root@esx02 root]# vi /etc/hosts
# Do not remove the following line, or various programs
# that require network functionality will fail.
127.0.0.1 localhost.localdomain localhost
172.16.1.130 esx02.vmware.cn
172.16.1.140 esx01.vmware.cn
172.16.1.148 license.vmware.cn
###################
172.16.1.130 esx02
172.16.1.140 esx01
172.16.1.148 license 請採納