linux伺服器集群搭建
① 什麼是linux集群
集群通信系統是一種計算機系統,
它通過一組鬆散集成的計算機軟體和/或硬體連接起來高度緊密地協作完成計算工作。簡單地說,集群(cluster)就是一組計算機,它們作為一個整體向用戶提供一組網路資源。這些單個的計算機系統就是集群的節點(node)。一個理想的集群,用戶是不會意識到集群系統底層的節點的。在他們看來,集群是一個系統,而非多個計算機系統。並且集群系統的管理員可以隨意增加和刪改集群系統的節點。
集群已不是一個全新的概念,早在七十年代計算機廠商和研究機構就對集群系統進行了研究和開發。這些系統不為大家熟知,是因為它主要用於科學工程計算。直到Linux集群的出現,集群的概念才得以廣泛傳播。集群系統主要分為高可用(High
Availability)集群,簡稱HA集群,和高性能計算(High Perfermance Computing)集群,簡稱HPC集群。
在Linux出現前,集群系統採用的操作系統主要有VMS、UNIX和WindowsNT。到九十年代末期,linux操作系統不斷走向成熟,它的健壯性不斷增強,並且提供了GNU軟體和標准化的PVM、MPI消息傳遞機制,最重要的是Linux在普通PC機上提供了對高性能網路的支持,這樣就大大推動了基於Linux的集群系統的普及和發展。
② 如何最快搭建LINUX伺服器集群
1.2.並行技術
這是一個非常簡單的建造四節點的小集群系統的例子,它是構建在Linux操作系統上,通過MPICH軟體包實現的,希望這個小例子能讓大家對集群系統的構建有一個最基本的了解。
2.使用MPICH構建一個四節點的集群系統
這是一個非常簡單的建造四節點的小集群系統的例子,它是構建在Linux操作系統上,通過MPICH軟體包實現的,希望這個小例子能讓大家對集群系統的構建有一個最基本的了解。
2.1 所需設備
1).4台採用Pentium II處理器的PC機,每台配
置64M內存,2GB以上的硬碟,和EIDE介面的光碟驅動器。
2).5塊100M快速乙太網卡,如SMC 9332 EtherPower 10/100(其中四塊卡用於連接集群中的結點,另外一塊用於將集群中的其中的一個節點與其它網路連接。)
3).5根足夠連接集群系統中每個節點的,使用5類非屏蔽雙絞線製作的RJ45纜線
4).1個快速乙太網(100BASE-Tx)的集線器或交換機
5).1張Linux安裝盤
2.2 構建說明
對計算機硬體不熟的人,實施以下這些構建步驟會感到吃力。如果是這樣,請找一些有經驗的專業人士尋求幫助。
1. 准備好要使用的採用Pentium II處理器的PC機。確信所有的PC機都還沒有接上電源,打開PC機的機箱,在准備與網路上的其它設備連接的PC機上安裝上兩塊快速乙太網卡,在其它的 PC機上安裝上一塊快速乙太網卡。當然別忘了要加上附加的內存。確定完成後蓋上機箱,接上電源。
2. 使用4根RJ45線纜將四台PC機連到快速乙太網的集線器或交換機上。使用剩下的1根RJ45線將額外的乙太網卡(用於與其它網路相連的那塊,這樣機構就可以用上集群)連接到機構的區域網上(假定你的機構區域網也是快速乙太網),然後打開電源。
3. 使用LINUX安裝盤在每一台PC機上安裝。請確信在LINUX系統中安裝了C編譯器和C的LIB庫。當你配置TCP/IP時,建議你為四台PC分別指定為192.168.1.1、192.168.1.2、192.168.1.3、192.168.1.4。第一台PC為你的伺服器節點(擁有兩塊網卡的那台)。在這個伺服器節點上的那塊與機構區域網相連的網卡,你應該為其指定一個與機構區域網吻合的IP地址。
4.當所有PC都裝好Linux系統後,編輯每台機器的/etc/hosts文件,讓其包含以下幾行:
192.168.1.1 node1 server
192.168.1.2 node2
192.168.1.3 node3
192.168.1.4 node4
編輯每台機器的/etc/hosts.equiv文件,使其包含以下幾行:
node1
node2
node3
node4
$p#
以下的這些配置是為了讓其能使用MPICH』s p4策略去執行分布式的並行處理應用。
1. 在伺服器節點
,建一個/mirror目錄,並將其配置成為NFS伺服器,並在/etc/exports文件中增加一行:
/mirror node1(rw) node2(rw) node3(rw) node4(rw)
2. 在其他節點上,也建一個/mirror目錄,關在/etc/fstab文件中增加一行:
server:/mirror /mirror nfs rw,bg,soft 0 0
3. /mirror這個目錄從伺服器上輸出,裝載在各個客戶端,以便在各個節點間進行軟體任務的分發。
4. 在伺服器節點上,安裝MPICH。MPICH的文檔可在
5.任何一個集群用戶(你必須在每一個節點新建一個相同的用戶),必須在/mirror目錄下建一個屬於它的子目錄,如 /mirror/username,用來存放MPI程序和共享數據文件。這種情況,用戶僅僅需要在伺服器節點上編譯MPI程序,然後將編譯後的程序拷貝到在/mirror目錄下屬於它的的子目錄中,然後從他在/mirror目錄下屬於它的的子目錄下使用p4 MPI策略運行MPI程序。
2.3 MPICH安裝指南
1.如果你有gunzip,就d下載mpich.tar.gz,要不然就下載mpich.tar.Z。你可以到http://www.mcs.anl.gov/mpi/mpich/downloa下載,也可以使用匿名ftp到ftp.mcs.anl.gov的pub/mpi目錄拿。(如果你覺得這個東西太大,你可以到pub/mpi/mpisplit中取分隔成塊的幾個小包,然後用cat命令將它們合並)
2.解壓:gunzip ;c mpich.tar.gz tar xovf-(或zcat mpich.tar.Ztar xovf-)
3.進入mpich目錄
4.執行:./configure為MPICH選擇一套適合你的實際軟硬體環境的參數組,如果你對這些默認選擇的參數不滿意,可以自己進行配置(具體參見MPICH的配置文檔)。最好選擇一個指定的目錄來安裝和配置MPICH,例如:
./configure -prefix=/usr/local/mpich-1.2.0
5.執行:make >&make.log 這會花一段較長的時間,不同的硬體環境花的時間也就不同,可能從10分鍾到1個小時,甚至更多。
6.(可選)在工作站網路,或是一台單獨的工作站,編輯mpich/util/machines/machines.xxx(xxx是MPICH對你機器體系結構取的名稱,你能很容易的認出來)以反映你工作站的當地主機名。你完全可以跳過這一步。在集群中,這一步不需要。
7.(可選)編譯、運行一個簡單的測試程序:
cd examples/basic
make cpi
ln ;s ../../bin/mpirun mpirun
./mpirun ;np 4 cpi
此時,你就在你的系統上運行了一個MPI程序。
8.(可選)構建MPICH其餘的環境,為ch_p4策略使
用安全的服務會使得任何啟動速度加快,你可以執行以下命令構建:
make serv_p4
(serv_p4是一個較新的P4安全服務的版本,它包含在MPICH 1.2.0版中),nupshot程序是upshot程序的一個更快版本,但他需要tk 3.6版的源代碼。如果你有這個包,你就用以下命令可以構建它:
make nupshot
9.(可選)如果你想將MPICH安裝到一個公用的地方讓其它人使用它,你可以執行:
make install 或 bin/mpiinstall
你可以使用-prefix選項指定MPICH安裝目錄。安裝後將生成include、lib、bin、sbin、www和man目錄以及一個小小的示例目錄,
到此你可以通告所有的用戶如何編譯、執行一個MPI程序。
③ 如何為小公司部署實施Linux集群網站
一、集群的基本概念
有一種常見的方法可以大幅提高伺服器的安全性,這就是集群。
Cluster集群技術可如下定義:一組相互獨立的伺服器在網路中表現為單一的系統,並以單一系統的模式加以管理。此單一系統為客戶工作站提供高可靠性的服務。
大多數模式下,集群中所有的計算機擁有一個共同的名稱,集群內任一系統上運行的服務可被所有的網路客戶所使用。Cluster必須可以協調管理各分離的組件的錯誤和失敗,並可透明地向Cluster中加入組件。
一個Cluster包含多台(至少二台)擁有共享數據存儲空間的伺服器。任何一台伺服器運行一個應用時,應用數據被存儲在共享的數據空間內。每台伺服器的操作系統和應用程序文件存儲在其各自的本地儲存空間上。
Cluster內各節點伺服器通過一內部區域網相互通訊。當一台節點伺服器發生故障時,這台伺服器上所運行的應用程序將在另一節點伺服器上被自動接管。當一個應用服務發生故障時,應用服務將被重新啟動或被另一台伺服器接管。當以上任一故障發生時,客戶將能很快連接到新的應用服務上。
二、集群的硬體配置
鏡像伺服器雙機
集群中鏡像伺服器雙機系統是硬體配置最簡單和價格最低廉的解決方案,通常鏡像服務的硬體配置需要兩台伺服器,在每台伺服器有獨立操作系統硬碟和數據存貯硬碟,每台伺服器有與客戶端相連的網卡,另有一對鏡像卡或完成鏡像功能的網卡。
鏡像伺服器具有配置簡單,使用方便,價格低廉諸多優點,但由於鏡像伺服器需要採用網路方式鏡像數據,通過鏡像軟體實現數據的同步,因此需要佔用網路伺服器的CPU及內存資源,鏡像伺服器的性能比單一伺服器的性能要低一些。
有一些鏡像伺服器集群系統採用內存鏡像的技術,這個技術的優點是所有的應用程序和網路操作系統在兩台伺服器上鏡像同步,當主機出現故障時,備份機可以在幾乎沒有感覺的情況下接管所有應用程序。因為兩個伺服器的內存完全一致,但當系統應用程序帶有缺陷從而導致系統宕機時,兩台伺服器會同步宕機。這也是內存鏡像卡或網卡實現數據同步,在大數據量讀寫過程中兩台伺服器在某些狀態下會產生數據不同步,因此鏡像伺服器適合那些預算較少、對集群系統要求不高的用戶。
硬體配置範例:
網路伺服器 兩台伺服器操作系統硬碟 兩塊
伺服器數據存貯硬碟 視用戶需要確定
伺服器鏡像卡(部分軟體可使用標准網卡) 兩塊
網路服務網卡 兩塊三、雙機與磁碟陣列
與鏡像伺服器雙機系統相比,雙機與磁碟陣列櫃互聯結構多出了第三方生產的磁碟陣列櫃,目前,豪威公司、精業公司等許多公司都生產有磁碟陣列櫃,在磁碟陣列櫃中安裝有磁碟陣列控制卡,陣列櫃可以直接將櫃中的硬碟配置成為邏輯盤陣。磁碟陣列櫃通過SCSI電纜與伺服器上普通SCSI卡相連,系統管理員需直接在磁碟櫃上配置磁碟陣列。
雙機與磁碟陣列櫃互聯結構不採用內存鏡像技術,因此需要有一定的切換時間(通常為60?D?D180秒),它可以有郊的避免由於應用程序自身的缺陷導致系統全部宕機,同時由於所有的數據全部存貯在中置的磁碟陣列櫃中,當工作機出現故障時,備份機接替工作機,從磁碟陣列中讀取數據,所以不會產生數據不同步的問題,由於這種方案不需要網路鏡像同步,因此這種集群方案伺服器的性能要比鏡像伺服器結構高出很多。
雙機與磁碟陣列櫃互聯結構的缺點是在系統當中存在單點錯的缺陷,所謂單點錯是指當系統中某個部件或某個應用程序出現故障時,導致所有系統全部宕機。在這個系統中磁碟陣列櫃是會導致單點錯,當磁碟陣列櫃出現邏輯或物理故障時,所有存貯的數據會全部丟失,因此,在選配這種方案時,需要選用一個品質與售後服務較好的產品。
硬體配置範例:
網路伺服器 兩台
伺服器操作系統硬碟 兩塊
第三方生產的磁碟陣列櫃 一台
磁碟櫃專用SCSI電線 兩根
磁碟陣列櫃數據存貯硬碟 視用戶需求確定
網路服務網卡 兩塊
除此之外,一些廠商還有更優秀的技術的解決方案,比如 HP.
三、HP雙機雙控容錯系統
HP NetServer為雙機雙控容錯系統提供了高品質和高可靠的硬體基礎……
HP雙機雙控容錯系統結合了HP伺服器產品的安全可靠性與Cluster技術的優點,相互配合二者的優勢。
硬體配置範例:
HP L系統的網路伺服器 兩台
伺服器操作系統硬碟 兩塊
HP硬碟存貯櫃(SS/6,RS/8,RS/12) 一台
磁碟櫃專用SCSI集群適配電纜 兩根
磁碟櫃數據存貯硬碟 視用戶需求確定
HP集群專用陣列卡 兩塊
網路服務網卡 兩塊五、HP光纖通道雙機雙控集群系統
光纖通道是一種連接標准,可以作為SCSI的一種替代解決方案,光纖技術具有高帶寬、抗電磁干擾、傳輸距離遠、質量高、擴展能力強等特性,目前在FC-AL仲裁環路上可接入126個設備。
光纖設備提供了多種增強的連接技術,大大方便了用戶使用。伺服器系統可以通過光纜遠程連接,最大可跨越10公里的距離。它允許鏡像配置,這樣可以改善系統的容錯能力。伺服器系統的規模將更加靈活多變。SCSI每條通道最多可連接15個設備,而光纖仲裁環路最多可以連接126個設備。
光纖集群系統組成:
HP光纖集群系統硬體設備包括有兩台HP伺服器(需支持光纖卡,目前有LC2000、LH3000、LH4、 LH6000、LT6000、LXr8000、LXR8500)及光纖適配卡,可以使用RS/12FC光纖磁碟陣列櫃,需另加一對或兩對網卡用於心跳檢測和與客戶端連接。在配置過程中還需另外選配光纖卡到光纖存貯設備的光纖電纜。硬體配置:
HPL系統的網路伺服器 兩台
伺服器操作系統硬碟 兩塊
HP光纖陣列存貯櫃(RS/12FC) 一台
光纖磁碟櫃專用光纖電纜 兩根
光纖磁碟櫃數據存貯硬碟 視用戶需求確定
HP光纖適配卡 兩塊
網路服務網卡 兩塊
四、集群的軟體配置
基於NT平台的集群軟體
Microsoft的MSCS,也有許多第三方的專業軟體公司開發的集群軟體,如豪威的DATAWARE,VIN CA公司的STANDBY SERVER,NSI公司的DOUBLE-TAKE
MS WolfPack的特點
MS WolfPack是MS Cluster server的別稱,是 微軟針對Cluster技術研製開發的雙機軟體。它集成在NT SERVER上,支持由二台機器組成的雙機系統,提供一種高可用且易管理的應用環境。
主要特點:
自動檢測和修復伺服器或應用程序的錯誤
可實現對伺服器中應用程序的切換
可通過TCP/IP連接各種客戶端,如MS-DOS、WINDOWS 3.X/9X/NT,Apple Macintosh、UNIX生產主機無需人工干涉即可自動恢復數據並接管任務
易管理性:
可自動審核伺服器和應用程序的工作狀態
可建立高可用性的應用程序、文件共享、列印請求等
可靈活設置應用程序和數據的恢復策略
簡單操作即可進行應用程序的離線,重新再線,伺服器間的遷移。
目前,WINDOWS 2000 Advanced Server與WINDOWS 2000 DataCenter Server都集成有更先進集群技術。
其它的網路操作系統平台上也有許多集群軟體,比如:
基於novell平台的集群軟體有Novell HA Server、Novell SFT III
基於sco UNIX平台的集群軟體有Sentinel集群軟體
基於Linux平台的集群軟體有TurboCluster
五、集群技術的發展趨勢
集群技術隨著伺服器硬體系統與網路操作系統的發展將會在可用性、高可靠性、系統冗餘等方面逐步提高。未來的集群可以依靠集群文件系統實現對系統中的所有文件、設備和網路資源的全局訪問,並且生成一個完整的系統映像。這樣,無論應用程序在集群中的哪台伺服器上,集群文件系統允許任何用戶(遠程或本地)都可以對這個軟體進行訪問。任何應用程序都可以訪問這個集群任何文件。甚至在應用程序從一個節點轉移到另一個節點的情況下,無需任何改動,應用程序就可以訪問系統上的文件。
在今天,利用伺服器的集群技術,通過周密計劃和網路維護,系統破壞的機率是非常小的。所以,企業伺服器的穩定必須使用集群技術。
④ Linux系統 CentOS 7怎麼搭建集群
CentOS 7下怎麼搭建高可用集群。高可用集群是指以減少服務中斷時間為目的的伺服器集群技術。它通過保護用戶的業務程序對外不間斷提供的服務,把因軟體/硬體/人為造成的故障對業務的影響降低到最小程度。那麼新的centos下怎麼來搭建高可用集群。環境:本文以兩台機器實現雙集熱備高可用集群,主機名node1的IP為192.168.122.168 ,主機名node2的IP為192.168.122.169 。
一、安裝集群軟體必須軟體pcs,pacemaker,corosync,fence-agents-all,如果需要配置相關服務,也要安裝對應的軟體
二、配置防火牆
1、禁止防火牆和selinux
修改/etc/sysconfig/selinux確保SELINUX=disabled,然後執行setenforce 0或者reboot伺服器以生效
2、設置防火牆規則
三、各節點之間主機名互相解析分別修改2台主機名分別為node1和node2,在centos 7中直接修改/etc/hostname加入本機主機名和主機表,然後重啟網路服務即可。
配置2台主機的主機表,在/etc/hosts中加入
四、各節點之間時間同步在node1和node2分別進行時間同步,可以使用ntp實現。
五、各節點之間配置ssh的無密碼密鑰訪問。下面的操作需要在各個節點上操作。
兩台主機都要互相可以通信,所以兩台主機都得互相生成密鑰和復制公鑰,相互的節點上的hosts文件是都要解析對方的主機名, 192.168.122.168 node1 192.168.122.169 node2
六、通過pacemaker來管理高可用集群
1、創建集群用戶
為了有利於各節點之間通信和配置集群,在每個節點上創建一個hacluster的用戶,各個節點上的密碼必須是同一個。
⑤ 同一網段三台linux伺服器怎樣搭建集群
三台只能是互相切換,真正的負載集群,一般常規構架:前端一台調度器,中間三台或以上web處理伺服器,後端一台文件伺服器(文件伺服器上存放web和資料庫)
⑥ 伺服器集群怎麼搭建Linux平台的
linux伺服器集群平台的搭建比較簡單,有專門的均衡軟體,比如lvs,lvs是一個集群系統,由很多伺服器組成,可以根據需要,把它門分為三層,一層是前端機,用於均衡,相當於公平為系統分配工作,二層是伺服器群,比如web伺服器群,DNS,mail群等,這些就是接待員,把均衡器分配的工作進行處理,第三層是存儲設備,用於存儲數據,相當於檔案庫。
知道這些後,要搭建就非常容易,有現成的軟體,比如我有四台web伺服器,2台資料庫,1台前置機 ,安裝linux系統,安裝lvs軟體,比如
heartbeat-2.1.4-9.el5.i386.rpm
heartbeat-ldirectord-2.1.4-9.el5.i386.rpm
libnet-1.1.4-3.el5.i386.rpm
heartbeat-devel-2.1.4-9.el5.i386.rpm
heartbeat-pils-2.1.4-10.el5.i386.rpm
perl-MailTools-1.77-1.el5.noarch.rpm
heartbeat-gui-2.1.4-9.el5.i386.rpm
heartbeat-stonith-2.1.4-10.el5.i386.rpm
當然還需要配置,你可以自己網路有關lvs集群的詳細安裝說明。希望能幫助你。
⑦ 哪種linux系統搭建集群比較好
循序漸進Linux 基礎知識、伺服器搭建、系統管理、性能調優、集群應用 第一部分基礎知識篇 第1章Linux學習方法論 第2章Linux系統的安裝與基本配置 第3章系統基本結構 第4章Linux常用命令及其使用 第5章Linux下軟體包的安裝與管理 第二部分伺服器搭建篇 第6章Linux伺服器網路配置 第7章Linux伺服器安全策略 第8章架設Linux伺服器 第9章伺服器故障排查 第三部分系統管理篇 第10章Linux用戶許可權管理 第11章Linux磁碟存儲管理 第12章Linux文件系統管理 第13章Linux內存管理 第14章Linux系統進程管理 第四部分性能調優篇 第15章Linux系統優化思路 第16章Linux系統性能評估與優化 第五部分集群、高可用篇 第17章Linux集群技術概論 第18章Linux-HA開源軟體Heartbeat 第19章Linux存儲集群 第20章Linux負載均衡軟體LVS Linux集群文庫P集群技術MC-ServiceGuard的應用 Linux機群系統並行程序調試器的設計與實現 Linux系統中LVS的實現剖析 Linux下的負載均衡集群LVS實現分析與測試 分布式網路環境下的負載平衡原理及演算法 基於Linux 的PC 集群 基於Linux的Beowulf集群的實現 基於Linux的伺服器群集方案 基於Linux的集群管理系統設計與實現 基於Linux的進程遷移機制設計 基於Linux虛擬伺服器的負載均衡 基於集群式系統的GSAD演算法 消息中間件的集群技術 一種新的基於Linux的郵件伺服器集群系統 有TCP連接容錯功能的網路負載平衡調度系統 /Book/system/Linux/29167/lin/496/3057996.shtml
⑧ 如何分分鍾創建Linux虛擬集群
首先需要有兩個Red Hat Enterprise Linux或CentOS 7節點,並配置正確的轉發及反向域名系統,由於Red Hat 6及7之間有些變化,顯著降低了集群管理的復雜度。
集群設置主要依靠兩種技術:Pacemaker 和 Corosync。Pacemaker運行集群管理端,Corosync管理更低級別的集群項目以確保連通性。
使用如下命令同時安裝Pacemaker 和 Corosync:
yum install –y pcs fence-agents-all
該命令將會下載配置集群所需要的所有依賴包,請注意必須在兩個節點上執行上述命令。
你還需要增加一個防火牆規則以允許通過必需的流量。只需要運行如下命令:
firewall-cmd --permanent --add-service=high-availability
firewall-cmd --permanent --add-service=http
firewall-cmd --reload
啟動集群設備
接下來的步驟是啟用並啟動集群服務。需要運行如下命令:
systemctl enable pcsd.service
systemctl start pcsd.service
第一行命令在啟動時啟用集群服務,第二行命令在當前會話啟動集群服務。
圖A 啟用並開啟集群服務
如果你有興趣,可以查看/var/logs/cluster/目錄下日誌確認發生了什麼。此時,我們已經啟動了集群服務,但還沒有真正構建集群設置。
採用最新版本的RHEL或CentOS,可以在命令行下使用pcs命令——「Pacemaker/Corosync配置系統」的簡稱——直接進行配置,這比之前的安裝過程更簡單。
安裝完集群配置後,創建了一個名為hacluster的用戶管理虛擬集群。為了能夠使用該賬號,必須更改密碼,因此在兩個節點上使用如下命令重置密碼:passwd hacluster
管理虛擬集群
完成上述配置後,就可以開始管理虛擬集群與節點了。第一個步驟是授權包含在虛擬集群中的節點。命令如下:pcs cluster auth node1 node2
如果一切按計劃進行,屏幕看起來應該與圖B類似。
圖B 授權集群節點
創建集群資源
下一個步驟是創建集群資源。可以使用pcs cluster setup命令創建集群資源:pcs cluster setup --start --name myapp node1 node2
此時,集群資源控制器將刷新現有配置,同步新配置數據並構建一個包括兩個指定節點的新配置。接下來就是使用如下命令啟用虛擬集群: pcs cluster enable --all
結果應該會顯示兩個節點已經啟用了。為檢查整個集群的狀態,可以使用命令pcs cluster status,該命令將顯示當前集群狀態的概要信息。
圖C 檢查當前集群狀態
理解共享存儲的作用
在處理虛擬集群節點時需要牢記的一個重要事項是確保已關閉了hypervisor級的文件鎖定系統。不這樣做可能會帶來很多問題,包括導致有問題的磁碟變為只讀的。應該在操作系統級完成鎖定。為覆蓋該設置,請檢查hypervisor文檔。
在本示例中,我們僅設置相關配置。我們需要做的一件事是對伺服器如何決定虛擬集群內什麼是「活的」以及什麼是「死的」進行管理。這可以通過稱之為fencing的進程完成。當節點沒有完全出故障並出現問題時,Fencing允許每個節點停止其他節點以保持集群的完整性。
沒有有效的fencing配置,客戶端將無法啟動。fencing命令是pcs stonith。stonith是「關閉其他節點」首字母的縮略詞,是一個能夠關閉未在正常運行的節點的Linux服務。
有一些fence方法可用,但我們在示例中使用的是內置的虛擬fencing方法。在任何一個節點上運行如下命令:
pcs stonith create newfence fence_virt pcmk_host_list=f1
此時,我們可以使用如下命令重新啟用集群組件:pcs cluster start --all
如果你使用的是pcs status命令,應該顯示正在正常運行的服務。
啟用虛擬IP
完成上述配置後,我們需要啟用虛擬IP。虛擬IP是沒有物理連接的地址。其用意是充當虛擬集群提供服務的容錯前端。例如,如果一個節點出故障,不需要任何手動配置或者明顯的停機時間,所有的流量將會路由到另一個集群節點。
根據需要取代如下命令中的IP地址,然後執行:
pcs resource create Cluster_VIP ocf:heartbeat:IPaddr2 ip=192.168.0.100 cidr_netmask=24 op monitor interval=20s
集群現在應該處於活動狀態。在開始使用集群前你需要增加集群資源。
需要解決更多linux問題,詳情請看 http://www.linuxprobe.com/chapter-00.html
望採納