當前位置:首頁 » 雲伺服器 » 雲伺服器主板設計

雲伺服器主板設計

發布時間: 2022-12-23 20:23:46

❶ 誰能幫我在中國知網上下篇論文,題目是:從網格計算到雲計算

【相似文獻】

中國期刊全文資料庫 前10條

1 ;文摘[J];計算機工程;1981年04期
2 ;計算機工程與設計1981年1—4期總目錄[J];計算機工程與設計;1981年04期
3 Jack B.Dennis;汪成為;;數據流超級計算機[J];計算機工程與設計;1981年01期
4 ;以動態結構來設計超級計算機系統的問題[J];計算機工程;1982年02期
5 ;計算機、機助設計和製造技術的回顧與展望[J];系統工程與電子技術;1983年08期
6 吳朔平;編者按[J];系統工程與電子技術;1984年04期
7 John Walsh ,章鴻猷;「超級計算機」方面的超級競爭[J];系統工程與電子技術;1984年04期
8 John Walsh ,章鴻猷;計算機的結構體系[J];系統工程與電子技術;1984年04期
9 William D.Marbach ,馮昭奎;美日製造超級計算機之爭[J];系統工程與電子技術;1984年04期
10 B.L.Buzbee ,R.H.Ewald ,W.J.Worlton ,馮昭奎;日本的超級巨型計算機技術[J];系統工程與電子技術;1984年04期

中國重要會議論文全文資料庫 前10條

1 G.E.Murphy;N.D.Whitmore;M.A.Thempson;趙改善;;交互疊前深度偏移[A];美國勘探地球物理學家學會第63屆年會論文集[C];1993年
2 Y.M.Chen;X.X.Zhong;揮之;;多處理器超級計算機上各向異性介質的三維多參數地震反演[A];美國勘探地球物理學家學會第64屆年會論文集[C];1994年
3 Mehmet C.Tanis;周玉山;;橫向變化介質中偏移方法的比較[A];美國勘探地球物理學家學會第66屆年會論文集[C];1996年
4 B.Wang;S.W.Cheng;K.Pann;H.L.Deng;李小秋;;用局部優化的簡化疊加功率法估算大靜校正量[A];美國勘探地球物理學家學會第67屆年會論文集[C];1997年
5 王道堂;;新世紀中的計算機應用前景[A];中國土木工程學會第八屆年會論文集[C];1998年
6 賀振華;杜少青;;在中小型機上實現地震資料的波動方程疊前深度偏移[A];計算機在地學中的應用國際討論會論文摘要集[C];1991年
7 黎康保;;用PC機群組構超級計算機[A];西部大開發 科教先行與可持續發展——中國科協2000年學術年會文集[C];2000年
8 吳兵;王錚;;GRIDGIS——基於網格計算的地理信息系統[A];地理教育與學科發展——中國地理學會2002年學術年會論文摘要集[C];2002年
9 續春榮;李玉萍;;地球物理數據未來網路共享模式的構想[A];中國地球物理學會年刊2002——中國地球物理學會第十八屆年會論文集[C];2002年
10 懷進鵬;;網路軟體技術及其發展[A];第六屆全國計算機應用聯合學術會議論文集[C];2002年

中國重要報紙全文資料庫 前10條

1 成才;每秒運算130萬億次的超級計算機[N];大眾科技報;2000年
2 孫瑋;VOLVO:用計算機模擬「轎車碰撞」[N];經濟參考報;2000年
3 夏華;超級計算機東山再起[N];中國計算機報;2000年
4 本報記者 汪向勇;深度計算的魅力[N];計算機世界;2000年
5 記者 吳仲國;日將建立超高速信息處理系統[N];科技日報;2000年
6 ;將製造每秒一百萬億次運算的超級計算機[N];科技日報;2000年
7 劉軍;全球超級計算機競爭處於白熱化[N];科技日報;2000年
8 記者 張可喜;62台超級電腦聯網建造信息處理系統[N];新華每日電訊;2000年
9 記者 劉軍;超級計算機競爭白熱化[N];新華每日電訊;2000年
10 記者 劉騰;基因研究又遇難題[N];中華工商時報;2000年

中國博士學位論文全文資料庫 前10條

1 趙東;網格計算環境中若干關鍵技術的研究[D];電子科技大學;2003年
2 任明;分布式城市空間信息系統的關鍵技術研究與實現[D];華東師范大學;2003年
3 劉泉;網路製造環境下產權保護與信息安全的若干基本理論及關鍵技術研究[D];武漢理工大學;2004年
4 陳華鈞;Web語義查詢與推理研究[D];浙江大學;2004年
5 許智宏;關於提高網格計算性能和服務質量的幾點研究[D];天津大學;2004年
6 唐家奎;基於MODIS數據氣溶膠反演建模與網格計算中間件研究[D];中國科學院研究生院(遙感應用研究所);2005年
7 方娟;基於移動代理的網格資源監控技術的研究[D];北京工業大學;2005年
8 王劍秦;遙感數據處理網格節點的研究[D];中國科學院研究生院(遙感應用研究所);2005年
9 劉煒;基於網格的面向Agent軟體分析與設計建模方法及環境研究[D];上海大學;2005年
10 魏洪濤;基於網格計算的模擬任務管理與調度方法研究[D];國防科學技術大學;2005年

中國碩士學位論文全文資料庫 前10條

1 陳加兵;羅源灣海洋環境信息系統設計及其水環境評價[D];福建師范大學;2002年
2 周曄;POVPE中軟體復用性研究及類庫子系統的實現[D];中國人民解放軍信息工程大學;2002年
3 郭同慶;多段翼型粘性繞流N-S方程計算[D];南京航空航天大學;2002年
4 孫洪偉;深基坑開挖工程中參數辨識的並行計算[D];大連理工大學;2002年
5 張紅岩;羊童賈爾斯[D];遼寧師范大學;2002年
6 丁浩;交通流預測與配流的研究[D];大連理工大學;2003年
7 楊文泉;網路拓撲發現技術[D];南京師范大學;2003年
8 黃河;基於移動Agent的網格資源發現與監控模型的研究[D];北京工業大學;2003年
9 王曉東;基於PPC750的通用伺服器主板設計及其信號完整性分析[D];哈爾濱工程大學;2003年
10 李爽;地球科學數據網格及其對地理科學的影響[D];河南大學;2003年

❷ AMD EPYC的模塊化和NUMA之路

看起來似乎有強行把晶元設計和數據中心建設拉到一起尬聊的感覺,但世間也沒有那麼多的一見如故,一些有意義的討論未嘗不是從尬聊開始的。

就我個人而言,今年已經多次在關於數據中心的文章和(線上)分享中提到AMD:「從1月29日開始到2月6日,騰訊會議每天都在進行資源擴容,日均擴容雲主機接近1.5萬台,8天總共擴容超過10萬台雲主機,共涉及超百萬核的計算資源投入,全部由騰訊雲自研的伺服器星星海提供支撐。」這款伺服器基於AMD去年8月發布的代號Rome(羅馬)的第二代EPYC處理器,最大的特點就是核多——雙路配置再算上超線程,一台採用騰訊雲定製版EPYC處理器的星星海伺服器可以為雲伺服器提供多達180個核——也就是說,這100萬核伺服器資源,「只」需要不到6000台該款自研伺服器即可滿足。

騰訊雲星星海SA2伺服器採用2U高度結合類似遠程散熱片(remote heat-sink)的設計,配合6個60mm風扇,據稱可以支持2個300W級別的CPU(AMD第二代EPYC處理器公開版本最高TDP為280W)

實際上,官方名稱為AMD EPYC 7002系列的第二代EPYC處理器最多能提供64個核芯、128個線程,騰訊雲定製版本選擇了48核芯(96線程)而已。至少在CPU的核數(core count)上,AMD給Intel(英特爾,昵稱「大英」)造成了很大的壓力。上個月英特爾發布了代號為Cooper Lake的第三代至強可擴展處理器(Xeon Scalable Processor,XSP),主打四路和八路市場,四路配置可提供112核芯224線程,核數上堪與雙路EPYC 7002系列抗衡,為10nm製程的Ice Lake爭取時間。

摩爾定律難以延續的後果就是CPU的功耗持續攀升,第一代至強可擴展處理器(公開版)里TDP最高的205W,到第三代已是尋常,250W算是克制——畢竟要考慮四路的散熱需求

話說上一次AMD搞得大英如此狼狽,還要追溯到本世紀初的64位路線之爭。眾所周知,英特爾是x86及其生態(特別是軟體生態)的締造者,屬於「親媽」級別,AMD充其量是個「後媽」。但是,x86幾十年的發展史證明,「親媽」未必就比「後媽」更了解孩子的發展潛力。也可以前一陣大火的劇集《隱秘的角落》為例,看完就會發現,對於朱朝陽的隱藏能力,後媽的認知似乎先於親媽。

Cooper Lake:你看我還有機會嗎?

簡單的說,Intel建立發展x86生態,AMD堅定捍衛x86路線——不斷改造作為生態核心的x86處理器,煥顏新生

盛衰無常:架構與製程的雙簧

雖然已經在過去十年中逐漸淪為愛好者口中的「牙膏廠」,但在歷史上,英特爾一直不乏創新精神。對待x86的態度可以算是這種精神的一個體現,起碼在進入64位時代之前,英特爾其實不太瞧得上x86,總覺得這個娃太low——可能是親媽更了解孕育過程中的種種先天不足吧——幾次三番地在重大的轉折點,想要「與時俱進」,重起爐灶,帶給用戶「船新體驗」。反而是AMD屢屢在關鍵時刻出來捍衛x86,通過翻新加蓋來維持其生命力。

64位是關鍵的轉折點。上世紀九十年代末,還是32位的x86剛「插足」伺服器市場不久,英特爾選擇與惠普(HP)聯手開發基於IA-64架構的Itanium(安騰)作為接班人,與已經64位了的RISC陣營大佬們對抗。然而,AMD認為x86還可以搶救一下,決定通過64位擴展來「續命」,並在2003年4月發布首款64位x86處理器Opteron,兩年後又把x86(-64)帶入多核時代。

此時,英特爾已經在IA-64的路上走了十多年。時過境遷,當初設定的目標並沒有實現,而x86擴展到64位和多核之後,不僅軟體和應用的生態系統得到了完整的繼承,性能也完全可以一戰。用戶用腳投票,大英不得不從。

第二代EPYC處理器發布會上,Google出示2008年7月9日上線的其第100萬台伺服器的照片,追訴與AMD的革命友情……還是台四路伺服器

英特爾痛定思痛,決定用架構和製程構築雙保險,在2007年提出了Tick-Tock(取自於時鍾的「嘀-嗒」周期)量產模式,即先通過製程升級將晶元面積縮小,是為Tick;再基於操練純熟的製程改用新的微架構,是為Tock。當時的英特爾工廠在技術和產能上都占據明顯優勢,只要架構上回到正軌,左右手組合拳一出,產量受限的AMD哪裡支撐得住?在2008年推出Nehalem微架構之後,英特爾終於奪回主動權。

在英特爾施加的強大壓力下,AMD在處理器架構上也犯了錯誤,2011年推出的Bulldozer(推土機)架構採用了即使現在看來也過於激進的模塊化設計。隨著2012年英特爾開啟至強E5時代,AMD在節節失利後不得不退出伺服器市場,上一個巔峰期徹底結束。

有道是:福兮禍所依,禍兮福所伏。先賢曾經曰過:縱有架構、製程雙保險,奈何CEO是單點。2016年英特爾推出最後一代至強E5/E7(v4),這是英特爾首批採用14nm製程的伺服器CPU,同時也宣告了Tick-Tock模式的終結,改用Process–Architecture–Optimization (製程-架構-優化)的三步走模式。

在這個可以簡稱為PAO的模式里,雖然仍是先製程、後架構的節奏,但新加入的優化不管是針對兩者中的哪一個還是兼而有之,都起到了拉長製程換代周期的效果。第三代至強可擴展處理器已經是第四波採用14nm製程的伺服器CPU,14nm後面的「+」都數不清楚有幾個了——還好預計年底發布的Ice Lake將終止這個「土撥鼠之日」式的製程循環。

架構層面上,從代號Skylake的初代至強可擴展處理器開始,由環形匯流排改為6×6的2D-mesh,然後持續「優化」。在架構的角度,Mesh和環形匯流排都屬於所謂傳統的單片(Monolithic)式架構,優點是整體性好,涉及到I/O的性能比較有保證;缺點是對製程不太友好,隨著規模的擴大,譬如核數和Cache的增加,良率上的挑戰很大,高端產品的成本下不來,這對於追求高核數的雲計算服務提供商顯然不是個好消息。


至強E5/E7 v4的四環(2組雙向環形匯流排)與至強SP的6×6 Mesh架構

關鍵時刻,又是沉寂多年的AMD挺身而出,接盤Tick-Tock,以自己的方式「維護」摩爾定律。

這個方式,就是模塊化。

MCM:同構對等模塊化的利與弊

先簡單回顧一下AMD之前的模塊化設計為什麼會失敗。 Bulldozer架構的模塊化設計,建立在AMD對未來應用趨勢的不靠譜假設上,即整數(Integer,INT)運算將占據絕對主導地位,結論是增加整數運算單元,減少浮點(Floating Point,FP)運算單元。 於是,Bulldozer架構很「雞賊」的採用了兩個(具有完整整數運算單元的)核芯共用一個浮點運算單元的模塊化設計,兩個模塊就可以提供4個核芯(但只有2個浮點運算單元),6核以此類推。

模塊化本身並沒有錯,Intel Nehalem的模塊化設計就很成功。Bulldozer錯在「拆東牆補西牆」,結果連補強都算不上

不用放馬後炮,這也是一個妄揣用意(用戶意志)的行為。即使是在AI大行其道的今天,第二代英特爾至強可擴展處理器已經支持INT8加速推理運算,也不能和通常意義上CPU的整數運算劃等號。貿然押寶,錯了當然怪不得別人。

不難看出,Bulldozer的模塊化,與之前Intel Nehalem架構的模塊化設計,只限於架構層面,並不是為製程考慮——CPU不論幾個模塊多少核,都是作為一個整體(die)來製造的,畢竟十年前製程還沒到瓶頸。

然而,到了AMD以代號Naples的(第一代)EPYC處理器重返伺服器市場的2017年,摩爾定律放緩的跡象已很明顯。同樣的14nm(可能還沒有英特爾的先進)製程,AMD如何以更低的成本提供更多的核芯?

EPYC系列處理器基於AMD的Zen系列架構,從Zen、Zen+到Zen 2,以及規劃中的Zen 3的發展路線,有點像前面提到的Tick-Tock:開發一個良好的基礎然後交替演進,不斷優化。

與先輩們不同,Zen系列的模塊化明顯側重於解決製程面對的挑戰,即晶元在物理上被切割為多個die(比較小的晶元更容易製造,良率有保證,有利於降低成本),通過Infinity Fabric(IF)互連為一個整體,所以每個die就是一個模塊,但不一定是模塊化設計的最小單位。

第一代EPYC處理器的4個die及Infinity Fabric示意

還是從初代EPYC處理器所採用的Zen架構說起。Zen確立了該系列計算單元模塊化的最小單位CCX(Core Complex,核芯復合體),每個CCX包括4個Zen核芯(Core),以及8 MiB共享L3 Cache,每核芯2 MiB。

從AMD公開的示意圖來看,各片(Slice)L3 Cache之間的連接方式像是full-mesh(全網狀,即每兩個點之間都有直接連接,無需跳轉),CCX內部的跨核芯L3 Cache訪問是一致的

Zen的CCD里除了2個CCX,還有2個DDR內存控制器(各對應1個內存通道),用於片上(die之間)互連的Infinity Fabric(IF On-Package,IFOP),而CPU之間互連的Infinity Fabric(IF Inter-Socket,IFIS)與對外的PCIe通道是復用的——這個知識點在後面會用到。

晶元層面的模塊是CCD(Core Complex Die),包括2個CCX,共8個Core、4 MiB L2 Cache、16 MiB L3 Cache。官方名稱為AMD EPYC 7001系列的第一代EPYC處理器只有CCD這一種(die層面的)模塊,所以每個CCD除了2個CCX,還有大量I/O介面器件,包括DDR、Infinity Fabric/PCIe控制器,CCX佔CCD面積的比例只比一半略多(56%)。

這個多晶元模塊(multi-chip mole,MCM)架構的代號為Zeppelin(齊柏林),四個這樣的「復合型」CCD構成完整的第一代EPYC處理器,最多能提供32核芯、64 MiB L3 Cache,直接減少CCD的數量就會得到面向PC市場的高端(2×CCD)和主流產品(單CCD)。

按照AMD提供的數據:每個die的面積為213mm²(平方毫米),4個die的MCM封裝總面積為852mm²,如果要用大型單一晶元來實現,面積可以縮小到777mm²,大約節省10%,但是製造和測試成本要提高約40%,完全32核的收益下降約17%、成本提高約70%。投入產出比當然非常劃算,也變相的說出了大英的苦衷——可是,後者為什麼還在堅持單片路線呢?

MCM這種完全對稱的模塊化方案,如果套用到數據中心領域,相當於一個園區,幾棟建築結構和功能完全一樣,都包含了機房、變配電、柴發、冷站、辦公和接待區域等。好處當然是彼此之間沒有硬性依賴,每棟建築都可以獨立作為數據中心使用,照此復制就可成倍擴大規模;缺點是沒有其他類型的建築,而有些功能還是需要專門的建築集中和分區管理的,譬如人員辦公和統一接待……

如果一個數據中心園區只有黃框里這一種建築(模塊)……實際上,加上左邊的66KV變電站,這里也只是整個園區的一角

況且,與絕大多數的數據中心園區不同,CPU對各模塊之間的耦合度要求高得多,否則無法作為一個整體來運作,分工合作快速完成數據處理等任務。而這,正是MCM方案的局限性所在。

第一代EPYC的每個CCD都有「自己的」內存和I/O(主要是PCIe)通道,加上CCD之間的互連,每個CCD的外部I/O都很「重度」

多晶元(對稱)設計、全「分布式」架構的特點是內存和I/O擴展能力與CCD數量同步,隨著核芯數量的增加,內存和I/O的總「容量」(包括帶寬)會增加,這當然是優點,但缺點也隨之而來:

首先是局部性(locality)會降低I/O的性能,主要是跨CCD的內存訪問時延(latency)明顯上升。因為每組(2個)CCX都有自己的本地內存,如果要訪問其他CCD上連接的內存,要額外花費很多時間,即所謂的NUMA(Non-Uniform Memory Access,非一致性內存訪問)。雖然Zen的CCD上有足夠多的IFOP,讓4個CCD之間能組成全連接(full-mesh),無需經其他CCD跳轉(類似於CCX內4個核芯之間的狀況),但I/O路徑畢竟變長了;如果要訪問其他CPU(插槽)連接的內存,還要經過IFIS,時延會進一步上升。

CCD里的兩個CCX也通過Infinity Fabric連接,同樣會增加跨CCX的Cache訪問時延

根據AMD提供的數據,不同內存訪問的時延水平大致如下:

隨著訪問路徑變長和復雜,時延以大約一半的比例增加,這個幅度還是很明顯的。

同一個CCD里的內存訪問沒有明顯差異,而跨CCD的內存訪問,時延增加就很明顯了

然後是PCIe,前面已經有圖說明,Zen用於CPU之間互連的IFIS與PCIe通道是復用的,即單路(單CPU)的情況下全都用於PCIe通道,共有128個;雙路(雙CPU)的情況下每個CPU都要拿出一半來作為(兩者之間的)IFIS,所以(對外的)PCIe通道數量仍然是128個,沒有隨著CPU數量的增加而增長。

簡單歸納一下,Zen架構的問題是:核數越多,內存訪問的一致性越差;CPU數量增加,外部I/O的擴展能力不變——NUMA引發的跨CPU訪問時延增長問題還更嚴重。

單CPU就能提供128個PCIe 3.0通道原本是第一代EPYC處理器的一大優勢,但雙CPU仍然是這么多,就略顯尷尬了

核數進一步增加的困難很大,不論是增加每個CCD的核數,還是增加CCD的數量,都要面臨互連的復雜度問題,也會進一步惡化一致性。

說得更直白一些,就是Zen架構的擴展能力比較有限,難以支持更大的規模。

既然雙路配置有利有弊,AMD又是時隔多年重返伺服器市場,單路一度被認為是EPYC的突破口,譬如戴爾(Dell)在2018年初推出三款基於第一代EPYC的PowerEdge伺服器,其中就有兩款是單路。

1U的R6415和2U的R7415都是單路伺服器

類似的情況在通常用不到那麼多核及I/O擴展能力的PC市場體現得更為明顯,在只需要一到兩個CCD即可的情況下,消費者更多感受到的是低成本帶來的高性價比,所以「AMD Yes!」的鼓噪主要來自個人用戶,伺服器市場在等待EPYC的進一步成熟。

只有1個die的Ryzen將Zen架構的缺點最小化,獲得個人用戶的喜愛也就不足為奇了

Chiplet:異構混合模塊化的是與非

時隔兩年之後,AMD推出基於Zen 2架構的第二代EPYC處理器,通過架構與製程一體優化,達到最高64核、256 MiB L3 Cache,分別是第一代EPYC的2倍和4倍,內存訪問一致性和雙路的擴展性也有不同程度的改善,終於獲得了一眾雲服務提供商(CSP)的青睞。

Zen 2的整體設計思維是Zen的延續,但做了很多明顯的改進,配合製程(部分)升級到7nm,突破了Zen和Zen+在規模擴展上的限制。

首先,Zen2架構延續了Zen/Zen+架構每個CCD有2個CCX、每個CCX有4個核芯共享L3 Cache的布局,但是每個核芯的L3 Cache增大一倍,來到4MiB,每個CCX有16 MiB L3 Cache,是Zen/Zen+架構的兩倍。

CCD層面的主要變化是把DDR內存、對外的Infinity Fabric(IFOP/IFIS)和PCIe控制器等I/O器件剝離,以便於升級到7nm製程。AMD表示,第一代EPYC中,上述I/O器件佔CCD晶元面積的比例達到44%,從製程提高到7nm中獲益很小;而第二代EPYC的7nm CCD中,CPU和L3 Cache這些核心計算、存儲器件的佔比,高達86%,具有很好的經濟性。

被從CCD中拿出來的DDR內存控制器、Infinity Fabric和PCIe控制器等I/O器件,組成了一個單獨的I/O晶元,即I/O Die,簡稱IOD,仍然採用成熟的14nm工藝。

自左至右,分別是傳統單片式、第一代EPYC的MCM、第二代EPYC的Chiplet三種架構的示意圖

一個IOD居中,最多8個CCD圍繞著它,AMD把這種做法稱為Chiplet(小晶元)。

如果繼續拿數據中心的模塊化來強行類比,相當於把整個園區內的變電站、柴發、冷站、辦公和接待區域都整合到一個建築里,位於園區中央,周圍是構造完全相同的一座座機房樓……你說,這樣一個所有機房樓都離不開的建築,該有多重要?

僅從布局看,和第二代EPYC處理器有點像的數據中心,但變電站在園區外,製冷也是分布式的(與4個機房模塊在一起),中間的建築並沒有上面設想的那麼重要

第一代EPYC處理器(Naples)與第二代EPYC處理器(Rome)的片上布局對比,後者是1個IOD + 8個CCD,共9個小晶元組成的混合多die設計

因為CCD的數量增加一倍,所以Rome的核數可以達到Naples的兩倍;因為每個CCX/CPU核芯的L3 Cache容量也增加了一倍,所以Rome的L3 Cache總容量可以達到Naples的四倍。

14nm IOD + 7nm CCD的組合——因為不是全部升級到7nm,所以我更願意稱之為製程的「優化」——體現了更高的擴展性和靈活性,使第二代EPYC能夠以較低的製造成本提供更豐富的產品組合,提高了市場競爭力。但是,事情並沒有看起來這么簡單,要了解產品的具體構成和預期的性能表現,您還需要繼續往下看。

2019年8月,第二代EPYC正式發布後不久,AMD在Hot Chips大會上介紹了Zen 2產品的Chiplet設計。可能是之前有Zen+架構採用12nm製程的緣故吧,IOD的製程被寫成了12nm,其他場合的官方材料都是14nm,所以我們還是以後者為准

今年2月IEEE的ISSCC(International Solid-State Circuits Conference,國際固態電路峰會)2020上,AMD更詳細的介紹了Zen 2這一代產品的設計。結合前一幅圖可以看到,第二代EPYC的IOD具有83.4億晶體管,數量與同樣採用14nm製程的英特爾Skylake/Cascade Lake相當——雖然兩者的晶體管類型構成有很大差別,但可以作為一個參照,說明這個IOD自身的規模和復雜度。

從紅框中的選項來看,EPYC 7302 CPU有4個CCD,每個CCX有2個核芯,可以選擇各啟用1個

IOD集中所有I/O器件的一個好處是,CPU能提供的內存通道數量與CCD的數量無關。E企實驗室前一陣測試了基於第二代EPYC處理器的Dell PowerEdge R7525伺服器,送測配置包括2個AMD EPYC 7302處理器,從PowerEdge R7525的BIOS設置中可以看到,這款16核的CPU有4個CCD(而不是8個),應該對應下圖中右二的情形:

上方柱狀圖是AMD列出7+14nm Chiplet方案與假設的單片7nm方案相比,成本優勢可以達到一半以上(64核沒有假設,可能是指單片式很難製造);下方從左至右依次是8、6、4、2個CCD的布局,原則是盡可能的對稱

雖然7302在EPYC 7002系列產品中定位偏低端,只有16個核芯,用4個CCX就能滿足,但是它擁有128MiB的L3 Cache,這又需要8個CCX才可以。因此,7302的每個CCX只有2個核芯,享受原本屬於4個核芯的16 MiB L3 Cache。

從EPYC 7002系列的配置表中可以看出,7302下面72開頭的產品才是真正的低端,譬如同樣是16核的7282,不僅L3 Cache容量只有7302的一半(倒是符合每核4 MiB的「標配」),而且僅支持4個內存通道,也是7302等產品的一半——說明其CCD數量是2個,就像前一幅圖右下方所示的情況——4個內存通道配置的運行頻率也低,只有DDR4-2667,與標準的8通道DDR4-3200相比,理論內存帶寬僅為40%多

Dell PowerEdge R7525用戶手冊里對內存條的安裝位置有很詳細的說明,畢竟插滿8個內存通道和只用4個內存通道,性能差距太大

IOD集中所有I/O對性能也有好處,因為內存控制器集中在一個晶元上,有助於降低內存訪問的局部性(NUMA)。不過,AMD在很多場合放出的示意圖很有誤導性,容易讓人以為,對Rome(下圖右側)來說,同一個CPU上的內存訪問是不存在NUMA的。

從上面的數據來看,第二代EPYC處理器的「本地」內存訪問時延有所增長,畢竟內存控制器和CCX不在一個die上了;收益是跨CPU內存訪問的時延有所下降,總體更為平均

好在,稍微詳細一點的架構示意圖表明,一個EPYC 7002系列CPU內部的內存訪問仍然會有「遠近」之分:

Dell PowerEdge R7525的BIOS配置中,可以在L3 Cache的NUMA設置為Enabled之後,看到每個CPU內部其實還是可以像EPYC 7001系列一樣,分成4個不同的NUMA區域

這時學術性會議的價值就體現出來。AMD在ISSCC 2020上的演講表明,完整版的Server IOD要承載的功能太多,已經有太多的晶體管,中間都被Infinity Fabric和PCIe相關的I/O所佔據,內存控制器只能兩兩一組布置在IOD的四角,每2個CCD就近共享2個內存控制器。由於中間已經沒有走線空間,只能構成一個沒有對角線連接的2D-mesh拓撲——僅從拓撲角度而論,還不如EPYC 7001系列4個CCD的full-mesh連接方式。所以,臨近的訪問有長短邊造成的延遲差異,對角線的內存訪問因為要走過一長一短兩條邊,沒有捷徑可走,自然要更慢一些。

注意放大看IOD布局示意圖和右側1~4的不同等級時延註解,可以理解為每個CPU內部仍然分為4個NUMA區域:本地、短邊、長邊、(拐個彎才能抵達的)對角線

Hot Chips大會上的這張示意圖突出了不同功能的Infinity Fabric導致的IOD中部擁擠,和DDR內存控制器都被擠到邊角上的感覺。結合前一張圖,不難理解,像EPYC 7282這樣只有2個CCD對角線布置的低端SKU,另一條對角線上的4個DDR內存控制器主要起增加內存容量的作用,不如只保留CCD就近的4個內存通道

總之,不管是EPYC 7001系列的MCM,還是EPYC 7002系列的Chiplet,隨著晶元數量的增長,性能肯定會受到越來越明顯的影響(而不是近乎線性的同步提升),只是好的架構會延緩總體性能增長的衰減速度。

這里我們可以回過頭來看看同樣基於Zen 2架構的第三代AMD Ryzen處理器,主流PC產品沒有那麼多核數要求,只用2個CCD即可滿足,所以其配套的Client IOD(cIOD)正好是Server IOD的四分之一,從前面圖中晶體管數量的對比(20.9億 vs. 83.4億)也可以看出來。

代號「Matisse」的第三代Ryzen,仍然可以看到兩個DDR4內存控制器偏居一隅的「遺存」,但對兩個CCD已經公平了很多,基本不存在NUMA問題。也就難怪「AMD真香」黨在消費類用戶中比例要大得多

盡管CCD升級到了7nm,但更多核芯、更大得多的L3 Cache,意味著整體功耗的上升,譬如同樣16核的7302和7282,前者Cache大一倍,頻率略有提高,默認TDP就來到了155W,Dell為送測的R7525配備了180W的散熱器——而EPYC 7282的TDP則「只有」120/150W。當然,CCD應用7nm的效果還是比較明顯的,同樣16核、L3 Cache只有7302四分之一,運行頻率還低500MHz的7301,TDP也有150/170W,基本與7302相當。

為了滿足雲計算、高性能計算(HPC)和虛擬化等場景的用戶需求,AMD又向EPYC 7002系列CPU中增加了大量多核大(L3) Cache以及核數雖少但頻率很高的型號(如今年初發布的7Fx2系列),導致全系列產品中TDP在200W以上的SKU佔比很高,也給伺服器的散熱設計帶來了更高的挑戰。

200W+的CPU將越來越常見

EPYC 7002系列的另一大改進是PCIe從3.0升級到4.0,單路仍然是128個通道,但雙路可以支持多達160個通道(譬如Dell PowerEdge R7525的特定配置)——在主板支持的情況下。第一代EPYC處理器推出時的一個賣點是,為其設計的主板也可以支持第二代EPYC處理器。沒有廣而告之的是,要支持PCIe 4.0,主板需要重新設計。用老主板可以更快的把第二代EPYC處理器推向市場,卻不能充分發揮新CPU的全部能力。

不過,PCIe 4.0本身就是一個很大的話題,留待以後(有機會的話)專文討論。


❸ 伺服器的配置(參數)是如何的

你可以到廠商官網看看,相關的一些設計配置參數,比如這款
產品型號:ZI2W6S7-8438HV
產品類型:雙路十六核機架式伺服器
處 理 器:Xeon Silver
4110
內 存:8G DDR4 REG ECC
硬 盤:HD SATA3
2TB
網 卡:雙千兆
管 理:硬體監控、遠程管理
機 構:2U機架式
電 源:500W
操作系統:Linux免費版
/ VMware ESXi
服 務:全國聯保 叄年質保

❹ 搭建雲平台,伺服器硬體的最低配置

這個關鍵要看雲平台軟體支持的最小硬體配置,很多都支持一台伺服器搭建。只要配置支持vt的cpu(基本伺服器都支持),硬碟,4-8核以上,內存8-16gb以上。配系統盤大於500GB,數據盤1-5TB不等(關鍵看你要存多少數據),然後一塊千兆網卡。

❺ 如何自己搭建伺服器

伺服器, 你任何一台電腦都可以是一台伺服器, 伺服器就是一個特別設計過的適合長時間運行的一台主機. 只是存視頻網站而已, 不需要很高配置的機器, 隨便配一個能用的的xeonCPU, 然後內存8G已經算是豪華了, 顯卡就不用了, 伺服器要啥顯卡, 電源也是夠用就行, 重要的是硬碟, 你要考慮組raid來保護硬碟出現問題. 如果外網建議使用使用雲伺服器然後使用它們的存儲服務, 但是500T價格不菲的...就算你買硬碟也要至少買十幾個硬碟....

❻ 中小型企業如何選擇雲伺服器的

樓主你好,如果是企業選擇伺服器,要看是做企業哪方面業務。(參考:易邁雲 推出企業0元購買雲伺服器的永久性活動 )如果是企業網站一般對主機配置要求不高,即便是幾百兆虛擬主機也可以滿足,如果對整體安全要求更高,也可以選擇雲主機,或獨立伺服器。如果是放置企業其他類型業務,可以結合業務對機器硬體,帶寬的要求來選擇適合的主機。
企業有很多類型,不同企業需求也不一樣,需要根據企業的性質決定伺服器的方案!
用戶可根據不同需求,自由選擇CPU、內存、數據盤、帶寬等配置,還可隨時不停機升級帶寬,

❼ 專門為雲計算設計的「雲伺服器」是不是沒有顯卡

一般的雲伺服器是沒有顯卡的,你可以參考正睿這款雲計算伺服器就清楚了
產品型號:ZI22S6-14988RHV
產品類型:雙路十四核機架式伺服器
處 理 器:Xeon
E5-2680 V4
內 存:16G DDR4 REG ECC
硬 盤:HD SAS 600G
地址:http://www.zrway.com/server/proct_param/1023/11460.html

❽ 微服務架構:基於微服務和Docker容器技術的PaaS雲平台架構設計

基於微服務架構和Docker容器技術的PaaS雲平台建設目標是給我們的開發人員提供一套服務快速開發、部署、運維管理、持續開發持續集成的流程。平台提供基礎設施、中間件、數據服務、雲伺服器等資源,開發人員只需要開發業務代碼並提交到平台代碼庫,做一些必要的配置,系統會自動構建、部署,實現應用的敏捷開發、快速迭代。在系統架構上,PaaS雲平台主要分為微服務架構、Docker容器技術、DveOps三部分,這篇文章重點介紹微服務架構的實施。

如果想學習Java工程化、高性能及分布式、深入淺出。微服務、Spring,MyBatis,Netty源碼分析的朋友可以加我的Java高級交流:854630135,群里有阿里大牛直播講解技術,以及Java大型互聯網技術的視頻免費分享給大家。

實施微服務需要投入大量的技術力量來開發基礎設施,這對很多公司來說顯然是不現實的,別擔心,業界已經有非常優秀的開源框架供我們參考使用。目前業界比較成熟的微服務框架有Netflix、Spring Cloud和阿里的Dubbo等。Spring Cloud是基於Spring Boot的一整套實現微服務的框架,它提供了開發微服務所需的組件,跟Spring Boot一起使用的話開發微服務架構的雲服務會變的很方便。Spring Cloud包含很多子框架,其中Spring Cloud Netflix是其中的一套框架,在我們的微服務架構設計中,就使用了很多Spring Cloud Netflix框架的組件。Spring Cloud Netflix項目的時間還不長,相關的文檔資料很少,博主當時研究這套框架啃了很多英文文檔,簡直痛苦不堪。對於剛開始接觸這套框架的同學,要搭建一套微服務應用架構,可能會不知道如何下手,接下來介紹我們的微服務架構搭建過程以及 需要那些 框架或組件來支持微服務架構。

為了直接明了的展示微服務架構的組成及原理,畫了一張系統架構圖,如下:

從上圖可以看出,微服務訪問大致路徑為:外部請求 → 負載均衡 → 服務網關(GateWay)→ 微服務 → 數據服務/消息服務。服務網關和微服務都會用到服務注冊和發現來調用依賴的其他服務,各服務集群都能通過配置中心服務來獲得配置信息。

服務網關(GateWay)

網關是外界系統(如:客戶端瀏覽器、移動設備等)和企業內部系統之間的一道門,所有的客戶端請求通過網關訪問後台服務。為了應對高並發訪問,服務網關以集群形式部署,這就意味著需要做負載均衡,我們採用了亞馬遜EC2作為虛擬雲伺服器,採用ELB(Elastic Load Balancing)做負載均衡。EC2具有自動配置容量功能,當用戶流量達到尖峰,EC2可以自動增加更多的容量以維持虛擬主機的性能。ELB彈性負載均衡,在多個實例間自動分配應用的傳入流量。為了保證安全性,客戶端請求需要使用https加密保護,這就需要我們進行SSL卸載,使用Nginx對加密請求進行卸載處理。外部請求經過ELB負載均衡後路由到GateWay集群中的某個GateWay服務,由GateWay服務轉發到微服務。服務網關作為內部系統的邊界,它有以下基本能力:

1、動態路由:動態的將請求路由到所需要的後端服務集群。雖然內部是復雜的分布式微服務網狀結構,但是外部系統從網關看就像是一個整體服務,網關屏蔽了後端服務的復雜性。

2、限流和容錯:為每種類型的請求分配容量,當請求數量超過閥值時拋掉外部請求,限制流量,保護後台服務不被大流量沖垮;黨內部服務出現故障時直接在邊界創建一些響應,集中做容錯處理,而不是將請求轉發到內部集群,保證用戶良好的體驗。

3、身份認證和安全性控制:對每個外部請求進行用戶認證,拒絕沒有通過認證的請求,還能通過訪問模式分析,實現反爬蟲功能。

4、監控:網關可以收集有意義的數據和統計,為後台服務優化提供數據支持。

5、訪問日誌:網關可以收集訪問日誌信息,比如訪問的是哪個服務?處理過程(出現什麼異常)和結果?花費多少時間?通過分析日誌內容,對後台系統做進一步優化。

我們採用Spring Cloud Netflix框架的開源組件Zuul來實現網關服務。Zuul使用一系列不同類型的過濾器(Filter),通過重寫過濾器,使我們能夠靈活的實現網關(GateWay)的各種功能。

如果想學習Java工程化、高性能及分布式、深入淺出。微服務、Spring,MyBatis,Netty源碼分析的朋友可以加我的Java高級交流:854630135,群里有阿里大牛直播講解技術,以及Java大型互聯網技術的視頻免費分享給大家。

服務注冊與發現

由於微服務架構是由一系列職責單一的細粒度服務構成的網狀結構,服務之間通過輕量機制進行通信,這就引入了服務注冊與發現的問題,服務的提供方要注冊報告服務地址,服務調用放要能發現目標服務。我們的微服務架構中使用了Eureka組件來實現服務的注冊與發現。所有的微服務(通過配置Eureka服務信息)到Eureka伺服器中進行注冊,並定時發送心跳進行 健康 檢查,Eureka默認配置是30秒發送一次心跳,表明服務仍然處於存活狀態,發送心跳的時間間隔可以通過Eureka的配置參數自行配置,Eureka伺服器在接收到服務實例的最後一次心跳後,需要等待90秒(默認配置90秒,可以通過配置參數進行修改)後,才認定服務已經死亡(即連續3次沒有接收到心跳),在Eureka自我保護模式關閉的情況下會清除該服務的注冊信息。所謂的自我保護模式是指,出現網路分區、Eureka在短時間內丟失過多的服務時,會進入自我保護模式,即一個服務長時間沒有發送心跳,Eureka也不會將其刪除。自我保護模式默認為開啟,可以通過配置參數將其設置為關閉狀態。

Eureka服務以集群的方式部署(在博主的另一篇文章中詳細介紹了Eureka集群的部署方式),集群內的所有Eureka節點會定時自動同步微服務的注冊信息,這樣就能保證所有的Eureka服務注冊信息保持一致。那麼在Eureka集群里,Eureka節點是如何發現其他節點的呢?我們通過DNS伺服器來建立所有Eureka節點的關聯,在部署Eureka集群之外還需要搭建DNS伺服器。

當網關服務轉發外部請求或者是後台微服務之間相互調用時,會去Eureka伺服器上查找目標服務的注冊信息,發現目標服務並進行調用,這樣就形成了服務注冊與發現的整個流程。Eureka的配置參數數量很多,多達上百個,博主會在另外的文章里詳細說明。

微服務部署

微服務是一系列職責單一、細粒度的服務,是將我們的業務進行拆分為獨立的服務單元,伸縮性好,耦合度低,不同的微服務可以用不同的語言開發,每一個服務處理的單一的業務。微服務可以劃分為前端服務(也叫邊緣服務)和後端服務(也叫中間服務),前端服務是對後端服務做必要的聚合和剪裁後暴露給外部不同的設備(PC、Phone等),所有的服務啟動時都會到Eureka伺服器進行注冊,服務之間會有錯綜復雜的依賴關系。當網關服務轉發外部請求調用前端服務時,通過查詢服務注冊表就可以發現目標服務進行調用,前端服務調用後端服務時也是同樣的道理,一次請求可能涉及到多個服務之間的相互調用。由於每個微服務都是以集群的形式部署,服務之間相互調用的時候需要做負載均衡,因此每個服務中都有一個LB組件用來實現負載均衡。

微服務以鏡像的形式,運行在Docker容器中。Docker容器技術讓我們的服務部署變得簡單、高效。傳統的部署方式,需要在每台伺服器上安裝運行環境,如果我們的伺服器數量龐大,在每台伺服器上安裝運行環境將是一項無比繁重的工作,一旦運行環境發生改變,就不得不重新安裝,這簡直是災難性的。而使用Docker容器技術,我們只需要將所需的基礎鏡像(jdk等)和微服務生成一個新的鏡像,將這個最終的鏡像部署在Docker容器中運行,這種方式簡單、高效,能夠快速部署服務。每個Docker容器中可以運行多個微服務,Docker容器以集群的方式部署,使用Docker Swarm對這些容器進行管理。我們創建一個鏡像倉庫用來存放所有的基礎鏡像以及生成的最終交付鏡像,在鏡像倉庫中對所有鏡像進行管理。

服務容錯

微服務之間存在錯綜復雜的依賴關系,一次請求可能會依賴多個後端服務,在實際生產中這些服務可能會產生故障或者延遲,在一個高流量的系統中,一旦某個服務產生延遲,可能會在短時間內耗盡系統資源,將整個系統拖垮,因此一個服務如果不能對其故障進行隔離和容錯,這本身就是災難性的。我們的微服務架構中使用了Hystrix組件來進行容錯處理。Hystrix是Netflix的一款開源組件,它通過熔斷模式、隔離模式、回退(fallback)和限流等機制對服務進行彈性容錯保護,保證系統的穩定性。

1、熔斷模式:熔斷模式原理類似於電路熔斷器,當電路發生短路時,熔斷器熔斷,保護電路避免遭受災難性損失。當服務異常或者大量延時,滿足熔斷條件時服務調用方會主動啟動熔斷,執行fallback邏輯直接返回,不會繼續調用服務進一步拖垮系統。熔斷器默認配置服務調用錯誤率閥值為50%,超過閥值將自動啟動熔斷模式。服務隔離一段時間以後,熔斷器會進入半熔斷狀態,即允許少量請求進行嘗試,如果仍然調用失敗,則回到熔斷狀態,如果調用成功,則關閉熔斷模式。

2、隔離模式:Hystrix默認採用線程隔離,不同的服務使用不同的線程池,彼此之間不受影響,當一個服務出現故障耗盡它的線程池資源,其他的服務正常運行不受影響,達到隔離的效果。例如我們通過andThreadPoolKey配置某個服務使用命名為TestThreadPool的線程池,實現與其他命名的線程池隔離。

3、回退(fallback):fallback機制其實是一種服務故障時的容錯方式,原理類似Java中的異常處理。只需要繼承HystixCommand並重寫getFallBack()方法,在此方法中編寫處理邏輯,比如可以直接拋異常(快速失敗),可以返回空值或預設值,也可以返回備份數據等。當服務調用出現異常時,會轉向執行getFallBack()。有以下幾種情況會觸發fallback:

1)程序拋出非HystrixBadRequestExcepption異常,當拋出HystrixBadRequestExcepption異常時,調用程序可以捕獲異常,沒有觸發fallback,當拋出其他異常時,會觸發fallback;

2)程序運行超時;

3)熔斷啟動;

4)線程池已滿。

4、限流: 限流是指對服務的並發訪問量進行限制,設置單位時間內的並發數,超出限制的請求拒絕並fallback,防止後台服務被沖垮。

Hystix使用命令模式HystrixCommand包裝依賴調用邏輯,這樣相關的調用就自動處於Hystrix的彈性容錯保護之下。調用程序需要繼承HystrixCommand並將調用邏輯寫在run()中,使用execute()(同步阻塞)或queue()(非同步非阻塞)來觸發執行run()。

動態配置中心

微服務有很多依賴配置,某些配置參數在服務運行期間可能還要動態修改,比如:根據訪問流量動態調整熔斷閥值。傳統的實現信息配置的方法,比如放在xml、yml等配置文件中,和應用一起打包,每次修改都要重新提交代碼、打包構建、生成新的鏡像、重新啟動服務,效率太低,這樣顯然是不合理的,因此我們需要搭建一個動態配置中心服務支持微服務動態配置。我們使用Spring Cloud的configserver服務幫我們實現動態配置中心的搭建。我們開發的微服務代碼都存放在git伺服器私有倉庫裡面,所有需要動態配置的配置文件存放在git伺服器下的configserver(配置中心,也是一個微服務)服務中,部署到Docker容器中的微服務從git伺服器動態讀取配置文件的信息。當本地git倉庫修改代碼後push到git伺服器倉庫,git服務端hooks(post-receive,在服務端完成代碼更新後會自動調用)自動檢測是否有配置文件更新,如果有,git服務端通過消息隊列給配置中心(configserver,一個部署在容器中的微服務)發消息,通知配置中心刷新對應的配置文件。這樣微服務就能獲取到最新的配置文件信息,實現動態配置。

以上這些框架或組件是支撐實施微服務架構的核心,在實際生產中,我們還會用到很多其他的組件,比如日誌服務組件、消息服務組件等等,根據業務需要自行選擇使用。在我們的微服務架構實施案例中,參考使用了很多Spring Cloud Netflix框架的開源組件,主要包括Zuul(服務網關)、Eureka(服務注冊與發現)、Hystrix(服務容錯)、Ribbon(客戶端負載均衡)等。這些優秀的開源組件,為我們實施微服務架構提供了捷徑。

如果想學習Java工程化、高性能及分布式、深入淺出。微服務、Spring,MyBatis,Netty源碼分析的朋友可以加我的Java高級交流:854630135,群里有阿里大牛直播講解技術,以及Java大型互聯網技術的視頻免費分享給大家。

❾ 選擇雲計算伺服器需要考慮哪些因素

性價比:相同配置的伺服器,大家肯定希望買到便宜的伺服器。有很多初次購買伺服器的小夥伴很難買到好的伺服器,這與很多客戶不知道如何購買有一定的關系。大家要學會比對,看看cpu、硬碟、內存、帶寬、支持多少ip等等。

伺服器穩定性:伺服器的穩定性與伺服器的硬體及軟體都有一定的關系,硬體優秀的伺服器不容易出現假死的情況,也不容易出現物理故障。軟體也是一個方面,如果你用的盜版window軟體,很容易出現被駭客入侵的情況發生。

雲計算伺服器注意事項

對於大多數用戶而言,在大多數情況下,很難區分在雲伺服器上運行的應用程序(procere)和在具有相同規格的物理伺服器上運行相同應用程序之間的區別。當然,前提是兩者都配置正確。但是,一旦深入研究(research)並開始查看磁碟IO和低級別CPU基準等指標,物理和虛擬硬體之間的根本區別就會變得更加明顯。

正是出於這個原因,許多用戶更願意使用(use)物理伺服器和固態硬碟(簡稱:HDD)來搭載性能(xìngnéng)密集型應用程序(procere)。雖然這並不意味著雲伺服器一律較慢或物理伺服器一定更快。特別是雲伺服器,有許多因素會影響其他方面相同的虛擬硬體的性能。

❿ 推薦幾款雙路伺服器主板型號

具體要看你配什麼CPU,干什麼用,再搭配,伺服器不是台式機這種大白菜,配置不好,影響很大,不過一般自己攢的話,還是超微吧,通用性好些.個人推薦青雲伺服器。青雲伺服器就是青雲計算機與超微合作研發的,可以根據實際需求設計方案,讓伺服器性能達到最優

熱點內容
自適應濾波c語言 發布:2025-03-15 15:40:25 瀏覽:966
cs狙擊腳本 發布:2025-03-15 15:25:15 瀏覽:342
平板搭建ftp伺服器 發布:2025-03-15 15:24:32 瀏覽:831
中樞源碼指標 發布:2025-03-15 15:17:15 瀏覽:117
手柄壓縮 發布:2025-03-15 15:15:41 瀏覽:995
威綸通觸摸屏編程軟體 發布:2025-03-15 15:10:22 瀏覽:501
光遇安卓聖島季是什麼 發布:2025-03-15 15:10:06 瀏覽:714
socket緩存大小 發布:2025-03-15 15:10:05 瀏覽:967
創建資料庫db2 發布:2025-03-15 15:07:52 瀏覽:55
python和java哪個好 發布:2025-03-15 15:07:36 瀏覽:135