nas存儲vmware
⑴ vmware vsphere支持哪些存儲方式
磁碟/lun(san、iscsi、本地磁碟)、網路文件系統NAS。
1、光纖通道(FC)。
優點:低延遲(非IP存儲網路)、眾所周知,可靠性高、支持虛擬機文件系統(VMFS)。
缺點:需要專用主機匯流排控制器(HBA);價格昂貴,需要存儲區域網路(SAN)交換機和HBA;更多的管理工作(SAN交換機、換分zone等等)。
2、光纖乙太網(FCOE)。
優點:可以將存儲和其他網路流量融合到同一套網路當中;利用數據中心橋接功能提供基於乙太網的無損存儲協議;支持VMFS。
缺點:知名度和可靠性相對較低;需要最低10GB的無損乙太網基礎架構;無法進行路由;排錯異常困難。
3、互聯網小型計算機系統介面(iSCSI)。
優點:眾所周知,可靠性高、價格低廉、可以依賴於現有的網路組件、使用vSphere自帶的iSCSI軟體控制器、支持多路徑輸入/輸出(MPIO)負載均衡、正常情況下延遲較低、支持VMFS。
缺點:作為基於IP的存儲協議,會產生更高的延遲;使用iSCSI介面綁定時不能路由;如果使用iSCCI介面卡,會產生更高的延遲;安全顧慮。
⑵ 為啥要用NAS來作為數據中心虛擬化存儲
同樣,虛擬機在物理伺服器間遷移以實現整個環境效率最大化時,在這些伺服器間共享的網路介質要實現快速的切換和轉換。
如果說所有的虛擬化環境都有一個共同的主題,那就是數據中心虛擬化存儲空間需求。盡管現在市場上更傾向於使用StorageAreaNetwork(SAN)技術,但是NetworkAttachedStorage(NAS)也能滿足企業數據中心這方面的需求。
網路存儲的實現有兩個主要的方法:NAS和SAN。這兩種方法在網路架構以及在網路客戶端上的表現都有所差別。NAS設備利用現有的IP網路和傳輸文件層接入,提取它可用的物理磁碟,並以網路共享的方式向使用諸如CIFS或NFS的終端客戶機提供一致的文件系統。NAS設備對網路方式的文件共享進行了優化,因為它們與文件伺服器幾乎是相同的。
相反,SAN技術,包括FibreChannel(FC)和iSCSI,實現數據塊層訪問,放棄文件系統抽象並在客戶端表現為未格式化的硬碟
。FC是目前最流行的SAN技術,它運行在一個專用的網路上,要求在每個伺服器上使用專屬的FC交換機和主機匯流排適配器(HBA)。而FibreChanneloverEthernet(FCoE)是一個補充的新標准,它將存儲和IP網路合並到一個聚合交換機上,但是它仍然需要在每個伺服器上使用特殊的聚合網路適配器(CNA)。
而另一個數據塊級技術iSCSI則在IP流量中封裝了SCSI命令,同時能夠使用現有Ethernet網路介面適配器,但是它一般會增加一個TCP/IP卸載引擎(TOE)來優化性能。SAN解決方案在性能方面相對於NAS設備具備一定的優勢,但也存在一些爭議。SAN陣列的一個分區能夠在兩台主機上共享,但是這兩台主機都會將空間看作是自己的,這樣這兩台主機之間就會有空間爭奪的風險。雖然有一些方法可以解決這個資源爭奪問題,但是這個修復方法會增加額外一層的抽象——而NAS解決方案已經包含這一層抽象了。
兩種類型的虛擬化存儲數據中心都有各自的作用。例如,Microsoft的Exchange伺服器只支持通過數據塊級訪問數據的網路存儲。由於SAN的性能一般比NAS解決方案好,所以企業會在高I/O要求的應用中使用存儲網路,如資料庫。然而,出於實際管理虛擬機鏡像庫的目的,文件級訪問很可能是許多環境中最簡單的部署方法。根據組織的不同要求,數據中心經理可能會要求存儲團隊實現文件級存儲,或者直接安裝一個專用的NAS設備來滿足他們數據中心虛擬化存儲的需求。
虛擬化環境中NAS的替代方法
雖然許多人將NAS設備看作是支持虛擬化環境的最清晰的方法,但還有許多替代方案。對於已經部署了SAN的組織來說,他們可以使用NAS-SAN混合解決方案,在SAN可用空間之上再建立文件系統抽象。一個混合解決方案可以創建數據中心經理更喜歡的抽象層,同時保持中央存儲網路的性能和可管理性。較小型的組織也可以考慮共享物理伺服器上直接附加的存儲空間,使用其中一個伺服器作為中央存儲庫,而其餘伺服器則從這個伺服器獲取VM鏡像。雖然這個解決方案可以在最小型的環境中運行,但是在較大型的環境中它可能很快就會導致I/O瓶頸。
虛擬化中NAS的網路設計注意事項
對於網路管理員來說,萬幸的是NAS設備所依賴的文件共享和傳輸協議與大多數文件伺服器是一樣的,所以部署使用NAS的設計方法是非常相似的。然而,由於虛擬化環境的本質和所涉及的文件較大,所以在目標伺服器上傳輸這些虛擬機鏡像時需要盡早地考慮一些特別的注意事項。
網路管理員在進行NAS部署時應該保證所有相關的連接至少使用GigabitEthernet。他們也必須驗證連接虛擬環境的網路交換機使用的埠數足夠,從而能給存儲設備提供足夠的帶寬。管理員也應該再次評估可能影響伺服器和存儲之間連接的QualityofService(QoS)策略,並在需要時對它進行調整,可以給予增加的存儲流量更高的優先順序。在NAS部署前後都進行網路基線設置可以清晰的認識到添加NAS設備到數據中心網路所產生的影響。如果性能出現問題,那麼通過VLAN或專用交換機對網路的存儲流量進行劃分也是一個解決方法。
網路管理員應該與數據中心經理緊密協作,一起進行性能測試和比較NAS設備上可用的各種網路協議,一般是NFS和CIFS。這兩種標準的實現會因為網路設備、操作系統和虛擬化存儲方案的不同而差別很大。由於平台的差異,以及組織的不同需求,每個可用方法的性能測試都將會幫助您確定特定環境中的最佳解決方案。
最後,網路管理員和數據中心經理在數據中心中部署一個NAS設備時需要注意那些可能超出技術支持容量的增長。網路存儲的作用可能快速地增大,從而導致I/O瓶頸和其他問題。虛擬環境快速修復可能會像滾雪球一樣成為一個企業存儲解決方案,特別是在小型組織。可以肯定的是,即使是很小型的NAS部署都會討論向更包容的企業網路存儲戰略發展。根據不同需求,如果企業需要更高的吞吐量,那麼網路存儲可能需要增長為較大規模NAS的解決方案或遷移到SAN的解決方案。
⑶ 怎樣把NAS存儲設備掛載到VMwanre虛擬化環境中有沒有詳細操作步驟啊求大俠指點
點到主機,點右側配置,點存儲器,點添加,點網路存儲器系統,輸入NFS的IP地址,文件夾名,以及掛載出來的vmware存儲名,就可以了。
這種第一不安全,第二性能慢的比蝸牛,第三很容當像劉翔那麼動不動就掉鏈子,識別不到。
還是用iscsi吧
⑷ 如何使用NFS和NAS解決虛擬伺服器存儲問題
然而,這樣的靈活性有一個條件:物理機能夠看到所有虛擬磁碟鏡像。這通常會導致存儲網路成為一個使用網路文件系統(NFS)和虛擬網路附屬存儲(NAS)集群的開放網路。
在傳統基於塊的存儲中,如iSCSI和光纖通道存儲區域網路(FC SAN),這意味著我們必須能夠分配和操作邏輯單元號(LUN),以便在遷移虛擬機時可以迅速重新分配LUN給其它物理機。這個操作不僅是在最初部署時很難執行,隨著環境越來越大和復雜,它也會很難執行。要為每個虛擬機分配一個LUN,然後還要能夠迅速地將它重新分配給其它物理主機,這對IT人士來說已然是一個越來越嚴重的問題。
在越來越多的環境里,IT管理員都開始使用更大的LUN來承載多個虛擬機。盡管這可以減輕分配多個LUN給多個虛擬機的重擔,但無法解決分區和LUN增長的問題。
NFS解決方案
現在,VMware支持通過NFS啟動部署虛擬機。通過可啟動的NFS載入(mount)部署虛擬機是解決這個問題的一個理想方法,而且也被越來越廣泛地接受。
NFS是一個客戶端或伺服器系統,允許用戶跨網路訪問文件,並能夠像操作本地文件目錄一樣操作這些遠程文件。它是通過輸出(exporting)和載入(mounting)兩個過程完成的。輸出過程是指NFS伺服器向遠程客戶端提供文件訪問的過程;載入過程是指文件系統對操作系統和用戶變為可用的過程。NFS主要用於Unix-to-Unix文件共享,即使你的所有虛擬機都是基於Windows的,你也可以選用NFS。盡管Windows無法引導NFS,但VMware將NFS建立在它的磁碟虛擬層,所以Windows無需引導NFS。
NFS工作站很容易創建和操作。每個物理伺服器都能看到所有的虛擬磁碟鏡像,而且VMotion等功能也更加容易操作。與iSCSI或FC SAN中的每個VMDK創建一個LUN不同,你可以在一個NFS卷中共置多個VMDK(VMware Virtual Disk)文件。因為VMDK只是文件,而不是真正的磁碟。為什麼使用NFSNFS讓存儲和VMware管理員的工作變得容易得多,而且在很多VMware環境下都不會有任何性能損失。除了一些例外的存儲廠商提供虛擬化解決方案以外,LUN管理對存儲和VMware管理員來說都很具有挑戰性。而有了NFS執行,與單個文件系統的交互讓VMware鏡像供應更加容易。
訪問控制通過內置NFS安全性被啟用後,可以向一組VMware管理員提供NFS文件系統。有了NFS,就不需要微操作每一個LUN了。例如,VMware鏡像在文件夾中可以根據應用類型進行分組,而且可以同時提供給一系列應用使用。
此外,訪問路徑是基於傳統的乙太網,這不僅節省了成本,也更加易於進行故障檢修。因為,大多數企業對於IP管理的了解要遠遠多於對FC管理的了解。
NFS有一個優點就是訪問簡易。所有ESX伺服器都可以連接到載入點(mount point),這使得VMotion的使用更加容易。在FC部署中,每個ESX伺服器都必須能夠看到所有其它ESX伺服器的LUN,這很不利於配置和管理。NFS是一項共享技術,所有共享訪問都是內置的。
NFS的另一優勢在於數據保護方面。盡管通過NFS提供的VMware鏡像無法使用VMware VCB,但Unix或Linux主機可以載入這些鏡像來進行備份。利用支持NDMP的備份軟體可以備份這些鏡像。通過Linux主機的方法可以訪問VMware鏡像,而且可以通過這種方法可以載入快照和備份卷。此外,你還可以綜合利用NFS主機的復制工具保障業務持續性和災難恢復,而不用購買VMware專門的復制工具。
說得直白一點,NFS不是唯一的協議,它也有不太適合的時候。例如,Microsoft Cluster Service必須有成組存取(block access),而且有些情況下就需要光纖通道。iSCSI有一些很獨特的功能,其中一個是它能夠直接分配一個LUN給一個子操作系統,而不用通過VMware磁碟虛擬層。這些獨特的功能可以快速地將特定的LUN轉移出VMware環境。
這個執行需要的不僅僅是一個標準的文件伺服器或NAS,因為除了保存用戶數據以外,它還是架構的一個關鍵部分。
利用虛擬NAS集群解決I/O問題
通過NAS集群虛擬化可以緩解某些物理存儲相關問題,如I/O限制。
隨著負荷的不斷增加,傳統的NAS無法有效地擴展升級。部署多個物理伺服器會迅速加重I/O帶寬的負擔,這樣的負荷比在多數文件伺服器環境中的負荷要大得多。要減輕I/O帶寬負擔,就必須部署更多的NAS,而這又會導致NAS蔓延。
這使得我們必須在滿足額外的NAS系統需求以解決文件服務需求的同時,還要讓這些NAS系統必須能處理虛擬伺服器環境不斷變化的I/O需求。有了單獨的NAS head,VMotion就很難適用了,唯一的其它選擇是購買更大的單一的NAS head。在VMware環境下,這樣的升級不是因為容量限制而進行的,而是為了提供更高的性能而升級。
下面,我們說說虛擬NAS集群。一個虛擬NAS集群代表著整個ESX環境的一個NAS對象,即使這個對象是多個NAS head。一個虛擬NAS集群是一系列NAS節點,這些節點是作為一個整體被管理的。性能或容量的升級就成為相互獨立的事了,I/O性能升級只是連接更多的節點到集群,而容量升級則是連接更多的磁碟,互不影響。
此外,虛擬NAS集群還可以為環境提供冗餘。如果集群的其中一個節點出錯,該節點的文件系統會自動轉向集群中的其它節點。這個功能可以保障數據訪問不受中斷,對於虛擬伺服器環境非常重要。因為,虛擬伺服器環境下的一個錯誤可能會導致幾十個虛擬機受到嚴重影響,多層冗餘對於這樣的環境就顯得尤為重要。
Global Files System
將虛擬伺服器從一台物理機遷移到另一台物理機是一項勢在必行的工作,它可以給數據中心帶來很大的靈活性。而數據中心的靈活性也正是客戶所尋求的。相關虛擬磁碟的遷移,尤其是從一個陣列到另一陣列或一個NAS head到另一NAS head的遷移,並不是不可能的任務,但是會非常耗費時間,並且會中斷服務。
而在虛擬NAS集群環境下,這就是一件非常簡單的工作,而且不會造成服務中斷。這進一步提高了虛擬環境的靈活性。例如,如果某台物理機中的好幾個虛擬機存在I/O帶寬需求高峰期,那麼你可以將其它虛擬機磁碟鏡像移開它們所在的節點來應對I/O高峰期。這個功能還可以用於虛擬NAS集群中的標准文件系統,因為它們可以根據需求進行重新分配。
虛擬NAS和FC
在VMware近期的白皮書中,基於FC的塊I/O仍是一個尚未成熟的I/O性能領導者。盡管有些NAS供應商會對這些結果存在爭議,但這並不影響我們對這二者的利用。
首先,不到萬不得已不要使用FC。現在市場上有兩種不同的產品。第一種是NAS供應商(如Network Appliance)為他們的NAS head提供的FC和iSCSI服務。NAS head必須在NAS文件系統中創建一個封裝的FC LUN。第二種是EMC和OnStor等公司提供的網關(Gateway)解決方案,這些解決方案允許本地FC訪問存儲系統。在EMC的解決方案中,這當然是一個通向Clarriion陣列的網關。OnStor允許你通過它們的NAS網關(NAS gateway)為你現有的存儲添加一個有Global Files System的虛擬NAS集群。
⑸ vmware exsi如何增加磁碟陣列
磁碟陣列類型不一樣,有一些配置差別:
1. 使用比較多的光纖磁陣,伺服器上需要有對應的HBA卡,並且連接存儲(直連存儲光纖介面或者通過光纖交換機),磁陣需要配置將劃分的lun映射給esxi伺服器(lun許可權為讀寫)
2. 通過vmware client連接esxi伺服器(或者vCenter),選中左邊列表的esxi主機,選擇右側選項卡的配置-存儲器,添加存儲器,如下圖,然後點擊下一步,配置正確的情況下,列表裡會出現可用的lun,選擇lun,next一直到添加完成。
以上是掛載磁陣的方式,希望有幫助。