esxi搭建伺服器集群
1. 您好!看到你的一篇文章《如何在一台ESXi主機上搭建一整套VSAN集群的環境》有個問題請老教下!
這個和CPU設置有關
1,使用vSphere Web Client登錄vCenter Server
2,編輯設置內嵌的ESXi這台虛擬機
3,裡面CPU選項有幾個支持選項,勾上就行了
2. 如何在一台ESXi主機上搭建一整套VSAN集群的環境
就來介紹下如何在一台ESXi主機上配置3個ESXi並組建一個VSAN集群。昨天,我介紹了如何在一台ESXi主機上安裝ESXi的客戶機(當然這些ESXi本身也是主機哦,還可以在其上部署虛擬機,雖然性能會比較差)。因此,首先就是根據上面所說的硬體條件創建3個虛擬機用來安裝ESXi5.5u1。我的配置是每一台主機都包括:
4個CPU(最少2個)
8GB內存
3個硬碟,一個4GB(用來裝系統)、一個40GB(模擬成SSD)、一個400GB(提供給vsan存放數據)
2個網路適配器,一個在子網192.168.10.x用於管理和虛擬機網路,一個在子網192.168.20.x,用於VSAN VMkernel
虛擬機版本10
注意,為了讓ESXi客戶機有2個網路適配器,在ESXi主機(本例中起名為esxi01)上的網路配置至少要配置2個不同的埠組,我將這2個埠組分別配置在了2個不同的vSwitch上:
vSwitch0,默認vSwitch,配置有管理網路(VMKernel)和VM Network 10埠組
vSwitch2,新增的vSwitch,配置有VM Network 20埠組
此外,我還因為有iSCSI存儲,因此配置了2個iSCSI的VMKernel分別在vSwitch1和vSwitch2上。
vSwitch0和vSwitch2的配置截圖如下:
這里有一點要說明的是,如果僅為了vsan網路的通信,vSwitch2可以沒有上聯的物理適配器,我的截圖裡面配置了上聯的物理適配器是因為我還有一個iSCSI2的VMkernel需要使用。
安裝3台虛擬機的過程就不贅述了,只要你按照我昨天的文章來操作,就可以順利完成。安裝完之後,照例是配置靜態IP地址、FQDN主機名、禁用IPv6、DNS並開啟SSH和ESXi SHELL以備之後在控制台輸入命令行使用。
需要強調一次的是,在你的實驗網路中,需要配置好一台域控制器,它同時也是DNS伺服器,並事先在DNS伺服器裡面添加好靜態的ESXi主機的DNS項。在我的實驗環境中,它們是:
esxi55u01.home.lab – 192.168.10.31
esxi55u02.home.lab – 192.168.10.32
esxi55u03.home.lab – 192.168.10.33
請在黃色DCUI界面(安裝完ESXi主機的初次配置界面)裡面測試一下網路,如果主機域名也能順利解析,那就說明網路配置都完備了。DNS對於正確配置VMware集群來說非常重要。
接下去就是用vSphere Web客戶端再次連接到vCenter(我的是vCSA),把這幾台新安裝的ESXi主機添加進來,添加的時候要用FQDN,不能是IP地址。
現在讓我們來看一看這些ESXi主機的磁碟情況(左邊窗格點選主機,在右邊窗格分別選擇管理,存儲器和存儲設備,如圖所示),可以看見置備的3個磁碟都是非SSD。下面要克服的問題是怎樣欺騙ESXi,讓它以為其中一塊40GB的磁碟是SSD,這樣才能滿足VSAN配置的必要前提條件。
讓我們進入到這台vSphere ESXi主機的管理控制台界面,在命令行裡面輸入下面的2條命令,就可以完成:
# esxcli storage nmp satp rule add --satp VMW_SATP_LOCAL --device mpx.vmhba1:C0:T1:L0 --option=enable_ssd
# esxcli storage core claiming reclaim -d mpx.vmhba1:C0:T1:L0
注意,這里的設備ID要填寫你所想要變成SSD的那個磁碟,設備ID就是長的像mpx.vmhba1.C0:T1:L0的那個。
輸入命令後,如果沒有填錯,是不返回結果的。回到vSphere Web客戶端,刷新一下,你就會發現那個40GB的磁碟的類型變成SSD了。
關於VSAN的配置,LeoXiao同學寫的很不錯,就不多羅嗦了。你可以參考他的文章。
我借個圖說明下順序:
多說一句,為了測試NIOC功能,而這個功能只有在分布式交換機上才有,所以,建議VSAN集群配置的時候先配置好分布式交換機,並且把VSAN專用的VMkernel建在分布式交換機上。
最後,給大家看一下,要搭建一個VSAN集群的測試環境,在一台主機上至少要配置並開啟5台虛擬機——包括1台域控制器,1台vCenter和3台ESXi主機(每台都配了8GB內存哦)。
雖然還是有一些網路傳輸上不穩定的問題,不過vsan數據存儲好歹是建起來了。
3. ES集群原理與搭建
查看集群健康狀況:URL+ /GET _cat/health
Cluster
代表一個集群,集群中有多個節點,其中有一個為主節點,這個主節點是可以通過選舉產生的,主從節點是對於集群內部來說的。es的一個概念就是去中心化,字面上理解就是無中心節點,這是對於集群外部來說的,因為從外部來看es集群,在邏輯上是個整體,你與任何一個節點的通信和與整個es集群通信是等價的。
Shards
代表索引分片,es可以把一個完整的索引分成多個分片,這樣的好處是可以把一個大的索引拆分成多個,分布到不同的節點上。構成分布式搜索。分片的數量只能在索引創建前指定,並且索引創建後不能更改。
replicas
代表索引副本,es可以設置多個索引的副本,副本的作用一是提高系統的容錯性,當某個節點某個分片損壞或丟失時可以從副本中恢復。二是提高es的查詢效率,es會自動對搜索請求進行負載均衡。
Recovery
代表數據恢復或叫數據重新分布,es在有節點加入或退出時會根據機器的負載對索引分片進行重新分配,掛掉的節點重新啟動時也會進行數據恢復。
(2)、ES為什麼要實現集群
在單台ES伺服器節點上,隨著業務量的發展索引文件慢慢增多,會影響到效率和內存存儲問題等。
我們可以採用ES集群,將單個索引的分片到多個不同分布式物理機器上存儲,從而可以實現高可用、容錯性等。
ES集群中索引可能由多個分片構成,並且每個分片可以擁有多個副本。通過將一個單獨的索引分為多個分片,我們可以處理不能在一個單一的伺服器上面運行的大型索引,簡單的說就是索引的大小過大,導致效率問題。不能運行的原因可能是內存也可能是存儲。由於每個分片可以有多個副本,通過將副本分配到多個伺服器,可以提高查詢的負載能力。
(3)、ES是如何解決高並發
ES是一個分布式全文檢索框架,隱藏了復雜的處理機制,內部使用 分片機制、集群發現、分片負載均衡請求路由。
Shards 分片:代表索引分片,es可以把一個完整的索引分成多個分片,這樣的好處是可以把一個大的索引拆分成多個,分布到不同的節點上。構成分布式搜索。分片的數量只能在索引創建前指定,並且索引創建後不能更改。
Replicas分片:代表索引副本,es可以設置多個索引的副本,副本的作用一是提高系統的容錯性,當某個節點某個分片損壞或丟失時可以從副本中恢復。二是提高es的查詢效率,es會自動對搜索請求進行負載均衡。
1、每個索引會被分成多個分片shards進行存儲,默認創建索引是分配5個分片進行存儲。每個分片都會分布式部署在多個不同的節點上進行部署,該分片成為primary shards。
注意:索引的主分片primary shards定義好後,後面不能做修改。
2、為了實現高可用數據的高可用,主分片可以有對應的備分片replics shards,replic shards分片承載了負責容錯、以及請求的負載均衡。
注意: 每一個主分片為了實現高可用,都會有自己對應的備分片,主分片對應的備分片不能存放同一台伺服器上。主分片primary shards可以和其他replics shards存放在同一個node節點上。
3、documnet routing(數據路由)
當客戶端發起創建document的時候,es需要確定這個document放在該index哪個shard上。這個過程就是數據路由。
路由演算法:shard = hash(routing) % number_of_primary_shards
如果number_of_primary_shards在查詢的時候取余發生的變化,無法獲取到該數據
注意:索引的主分片數量定義好後,不能被修改
高可用視圖分析(下圖所示:上面的圖,如果節點1與節點2宕機了,es集群數據就不完整了。下面圖,如果節點1與節點2宕機了,es集群數據還是完整的)
(1)、伺服器環境
准備三台伺服器集群
| 伺服器名稱 | IP地址 |
| node-1 | 192.168.212.182 |
| node-2 | 192.168.212.183 |
| node-3 | 192.168.212.184 |
(2)、關閉防火牆
(3)、**** http://192.168.212.185:9200/_cat/nodes?pretty
*號表示為master節點
注意:
注意克隆data文件會導致數據不同步
報該錯誤解決辦法 :
failed to send join request to master
因為克隆導致data文件也克隆呢,直接清除每台伺服器data文件。
4. 什麼技術能實現多台伺服器虛擬成一台伺服器如何配置
可以通過安裝虛擬機實現,利用vmware公司的esxi這款產品實現。
配置方法:
esxi裡面自帶有集群這一項功能,可將多台伺服器添加到集群中來,集群建好後還可以利用裡面的ha(高可用性)、drs(分布式存儲調試),evc(多硬體兼容)等多種特性將多台伺服器的硬體資源加入到一個資源池裡,可對硬體的資源做分配。
以百分比的方式做權重,可操控這個資源池裡的硬體資源分別分配多少到平台上建好的虛擬機上,可用於生產環境中。
esxi是vmware的虛擬機軟體的企業版,底層系統直接安裝在伺服器上,無需像windows server 2008的hyper v那樣依賴於windows操作系統,不用再多佔用多餘的硬體資源,性能非常好。
esxi簡介:
ESXi專為運行虛擬機、最大限度降低配置要求和簡化部署而設計。只需幾分鍾時間,客戶便可完成從安裝到運行虛擬機的全過程,特別是在下載並安裝預配置虛擬設備的時候。
在VMware Virtual Appliance Marketplace 上有800多款為VMware hypervisor 創建的虛擬設備。
如今,ESXi已經實現了與Virtual Appliance Marketplace的直接整合,使用戶能夠即刻下載並運行虛擬設備。這為即插即用型軟體的交付與安裝提供了一種全新和極其簡化的方式。
5. 如何在一台ESXi主機上搭建一整套VSAN集群的環境
大概思路,建三個esxi虛機每虛機掛四個盤,裝esxi後,進入esxi後台,把其中一個硬碟設成ssd硬碟,安裝vcenter後就可搭建vsan,我成功搭建過
6. 如何在一台ESXi主機上搭建一整套VSAN集群的環境
vsan最小可以支持雙節點架構,但必須有一台見證伺服器虛擬機,所以,你需要在你的物理esxi上再安裝兩個虛擬esxi,和一個見證伺服器vm(這個用vmware官網給的ovf文件導入,配置即可),然後再給這兩台虛擬機esxi掛載幾個磁碟,模擬ssd和hd,這樣你就可以搭出一個vsan的模擬環境,這個環境僅僅是實驗性質,用於了解配置和功能,完全不能用於真實的生產環境.
7. 如何在一台ESXi主機上搭建一整套VSAN集群的環境
至少3台以上的vSphere ESXi 5.5U1主機
每台主機需要至少一塊SSD和一塊磁碟(至少有3台主機有這樣的配置)提供給VSAN數據存儲用
每台主機至少要有千兆網卡,推薦萬兆。如果是千兆,建議有一個千兆埠專門提供給VSAN專用。
每台主機最少6GB內存
支持虛擬化技術的Intel或AMD處理器,至少是Intel XEON corei7級別或更高。
8. esxi4 HA集群問題,求助
在小型VMware環境當中,錯誤配置共享存儲的情況並不少見。花費一些時間來糾正這些錯誤可以在ESXi主機超過負載或者宕機時避免很多問題。
一個成功的vSphere部署需要包含三個基本部分:多個相同的ESXi伺服器、共享存儲和vCenter。任何具有多個ESXi伺服器的數據中心都應該使用共享存儲,並且對於所有伺服器集群都保證一直可用。
對於一些vSphere核心技術來說,比如v
Motion、分布式資源調度(DRS)和高可用性(HA),共享存儲是一個前提條件。vMotion可以在不產生宕機時間的情況下,將一個運行中的虛擬機從一台ESXi主機遷移到另一台上。DRS利用vMotion技術將虛擬機移動到其他的ESXi主機上,以避免產生CPU和內存不足的情況。如果一台ESXi伺服器發生故障,vSphere HA會在集群中的其他ESXi主機上重啟正在運行的虛擬機。DRS和HA只能用於存放在共享存儲上的虛擬機;不論是HA還是DRS遷移,虛擬機在存儲上的位置都不會發生改變。
為了最大限度地發揮HA和DRS的作用,虛擬機使用的所有存儲都必須對集群中的每一台ESXi伺服器保證可用。連續的共享存儲使用的配置取決於存儲網路類型:光纖通道(FC)、iSCSI還是網路文件系統(NFS)。對於FC和iSCSI存儲,需要確保存儲陣列對於每個ESXi主機都使用相同的邏輯單元號(LUN)。一些陣列通過使用分組可以輕松實現這個需求,但是其他陣列就需要你為每個主機都單獨進行配置。
9. vmware esxi 6.0在VMware vSphere Client下面怎麼做集群 我的vSphere Client里為什麼沒有新建集群這選項
因為別人連接的是VMware vCenter server!
而你連接的僅僅是ESXi虛擬化主機而已。
你需要先創建虛擬機,配置好DC和資料庫,再安裝好vCenter Server。
完成後,使用vsphere client連接安裝vCenter Server的那台虛擬機的IP地址,使用[email protected]登陸才會有對應功能出現。
不清楚,請自行去看vCenter Server的相關教程!