阿里雲伺服器apache
① 阿里巴巴是用的什麼伺服器阿里巴巴是用的什麼伺服器的
轉載:阿里巴巴選擇ApacheFlink的原因是什麼?本文主要根據阿里巴巴計算平台事業部高級技術專家莫問在雲起大會上的演講進行整理。一棵小樹苗逐漸長成參天大樹;一顆小小的橡實可能長成參天大樹。隨著人工智慧時代的到來和數據量的爆炸式增長,典型的大數據業務場景中,常見的數據處理方式是使用批處理技術處理全量數據和流計算處理實時增量數據。在大多數業務場景中,用戶的業務邏輯在批處理和流處理中往往是相同的。然而,用戶用於批處理和流處理的兩套計算引擎是不同的。因此,用戶通常需要編寫兩套代碼。這無疑帶來了一些額外的負擔和成本。阿里巴巴的商品數據處理往往需要面對增量和全量兩種不同的業務流程,因此,阿里在思考,是否可以有一個統一的大數據引擎技術,用戶只需要根據自己的業務邏輯開發一套代碼就可以廣泛應用了。在這樣不同的場景下,無論是全數據還是增量數據,還是實時處理,都可以有一套完整的解決方案支持,這也是阿里選擇Flink的背景和初衷。目前開源的大數據計算引擎有很多選擇,如Storm、Samza、Flink、KafkaStream等。以及Spark、Hive、Pig、Flink等批量處理。但是同時支持流處理和批處理的計算引擎只有兩個選擇:一個是ApacheSpark,一個是ApacheFlink。從技術、生態等多方面綜合考慮,阿里最終決定將Flink作為統一通用的大數據引擎作為未來的選擇。Flink是一個統一的大數據計算引擎,具有低延遲、高吞吐量。在阿里巴巴的生產環境中,Flink的計算平台每秒可以處理數億條消息或事件,延遲為毫秒級。同時,Flink提供了一次性的一致性語義。保證了數據的正確性。這樣,Flink大數據引擎就可以提供金融數據處理能力。弗林克在阿里的現狀基於ApacheFlink在阿里巴巴搭建的平台於2016年正式上線,從阿里巴巴的搜索和推薦兩個場景實現。目前,包括阿里巴巴所有子公司在內的所有阿里巴巴業務都採用了基於Flink的實時計算平台。同時,Flink計算平台運行在開源的Hadoop集群上。Hadoop的YARN作為資源管理調度,HDFS作為數據存儲。所以Flink可以和開源大數據軟體Hadoop無縫對接。目前,這個基於Flink的實時計算平台不僅服務於阿里巴巴集團,還通過阿里雲的雲產品API向整個開發者生態系統提供基於Flink的雲產品支持。Flink在阿里巴巴的大規模應用表現如何?規模:一個系統是否成熟,規模是一個重要的指標。Flink最初推出阿里巴巴只有幾百台伺服器,現在已經達到上萬台伺服器,在全球屈指可數;狀態數據:基於Flink,內部積累的狀態數據已經是PB規模;事件:如今,每天在Flink的計算平台上處理的數據超過萬億條;PS:高峰期每秒可承擔超過4.72億次訪問,最典型的應用場景是阿里巴巴雙11的大屏;弗螞巧如林克的發展之路接下來,從開源技術的角度,我們來談談ApacheFlink是如何誕生,如何成長的。而阿里又是如何在這個成長的關鍵時刻進來的?你對它做過哪些貢獻和支持?Flink誕生於歐洲大數據研究項目Streaming。這個項目是柏林工業大學的一個研究項目。早期,Flink做的是批量計算,但2014年,Streaming的核心成員孵化了Flink,同年將Flink捐贈給Apache,後來成為Apache最頂尖的大數據項目。同時,Flink計算的主流方向被定位為流式,即使用流式計算來計算所有的大數據。這就是Flink技術誕生的背景。2014年,Flink作為專注於流計算的大數據引擎,開始在開源大數據行業嶄露頭角。不同於Storm、SparkStreaming等流計算引擎,它不僅是一個高吞吐量、低延遲的計算引擎,還提供了許多高級功能。比如提供有狀態計算,支持狀態管理,支持數據語義的強一致性,支持事件時間,水印處理消息無序。Flink核心概念和基本概念Flink區別於其他流計算引擎的地方其實是狀態管理。什麼是狀態?比如開發一套流量計算系統或者任務做數據處理,可能經常需要對數據做統計,比如Sum,Count,Min,Max,這些值都需要存儲。因為它們是不斷更新的,所以這些值或變數可以理解為一種狀態。如果數據源正在讀取Kafka,RocketMQ,可能需要記錄讀取的位置並記錄偏移量。這些偏移變數是要計算的狀態。Flink提供了內置的狀態管理,可以將這些狀態存儲在Flink內部,而不需要存儲在外部系統中。這樣做有以下優點:第一,減少了計算引擎對外部系統的依賴和部署,運維更簡單;其次,在性能上有了很大的提升:如果是通過外部訪問,比如Redis,HBase必須通過網路和RPC訪問。如果Flink在內部訪問這些變數,它只通過自己的進程訪問這些變數。同時,Flink會定期讓這些狀態的檢查點持久化,並將檢查點存儲在分布式持久化系統中,比如HDFS。這樣,當Flink的任務出錯時,它會從最新的檢查點恢復整個流的狀態,然後繼續運行它的流處理。對用戶沒有數據影響。Flink如何保證在檢查點恢復的過程中沒有數據丟失或重復?要保證計算準確,原因是Flink使用了一套經典的Chandy-Lamport演算法,其核心思想是將這種流計算視為一種流拓撲,在這種拓撲的頭部有規律地插入來自源點的特殊屏障,並將屏障從上游廣播到下游。當每個節點接收到所有柵欄時,它將拍攝狀態快照。每個節點完成快照後,整個拓撲將被視為一個完整的檢查點。接下來,無論發生什麼故障,都會從最近的檢查點恢復。Flink使用這種經典演算法來確保語義的強一致性。這也是Flink與其他無狀態流計算引擎的核心區別。以下是Flink解決無序問題的方法。比如星球大戰的序列,如果按照上映時間來看,可能會發現故事在跳躍。在流量計算上,和這個例子很像。所有消息的到達時間與源在線系統日誌中實際發生的時間不一致。在流處理的過程中,希望消息按照它們在源端實際發生的順序進行處理,而不是按照它們實際到達程序的時間。Flink提供了一些先進的事件時間和水印技術來解決亂序問題。以便用戶可以有序地處理該消息。這是Flink的一個非常重要的特點。接下來介紹一下Flink起步時的核心概念和理念,這是Flink發展的第一階段;第二階段是2015年和2017年。這個階段也是Flink發展和阿里巴巴介入的時候。故事源於2015年年中我們在搜索事業部做的一項調查。當時阿里有自己的批處理技術和流計算技術,既有自研的,也有開源的。但是,為了思考下一代大數據引擎的方向和未來趨勢,我們對新技術做了大量的研究。結合大量的研究成果,我們最終得出結論,解決一般大數據計算需求,整合批量流的計算引擎是大數據技術的發展方向,最終我們選擇了Flink。但2015年的Flink還不夠成熟,規模和穩定性都沒有達到實踐的程度。最後我們決定在阿里成立Flink分公司,對Flink進行大量的修改和改進,以適應阿里巴巴的超大型業務場景。在這個過程中,我們團隊不僅改進和優化了Flink的性能和穩定性,還在核心架構和功能上做了大量的創新和改進,並貢獻給了社區,比如:Flink全新的分布式架構、增量式檢查點機制、基於信用的網路流量控制機制和流式SQL。阿里巴巴對Flink社區的貢獻我們來看兩個設計案例。第一個是阿里巴巴重構了Flink的分布式架構,對Flink的作業調度和資源管理做了明確的分層和解耦。這樣做的第一個好處是Flink可以在各種開源資源管理器上本地運行。這種分布式架構改進後,Flink可以原生運行在HadoopYarn和Kubernetes這兩種最常見的資源管理系統上。同時將Flink的任務調度由集中式調度改為分布式調度,使Flink可以支持更大的集群,獲得更好的資源隔離。另一個是實現增量檢查點機制,因為Flink提供了有狀態計算和規則檢查點機制。如果內部數據越來越多,檢查點就會越來越大,最終可能導致做不下去。提供增量檢查點後,Flink會自動找出哪些數據是增量更改的,哪些數據是修改的。同時,只有這些修改過的數據被持久化。這樣檢查點就不會隨著時間的運行越來越難,整個系統的性能也會非常穩定,這也是我們貢獻給社區的一個非常重要的特性。經過2015-2017年對Flink流媒體能力的提升,Flink社區逐漸走向成熟。Flink也成為了流媒體領域最主流的計算引擎。因為Flink最開始是想做一個統一流式、批量處理的大數據引擎,這個工作在2018年就已經開始了。為了實現這一目標,阿里巴巴提出了新的統一API架構和統一SQL解決方案。同時,在流式計算的各種功能得到改進後,我們認為批量計算也需要各種改進。無論在任務調度層還是數據洗牌層,在容錯性和易用性方面都有很多工作需要改進。究其原因,這里有兩個要點與大家分享:●統一的API堆棧●統一的SQL方案我們來看看FlinkAPI棧的現狀。研究過Flink或者用過Flink的開發者應該知道。Flink有兩個基本的API,一個是數據流,一個是數據集。數據流API提供給流用戶,數據集API提供給批量用戶,但是這兩個API的執行路徑完全不同,甚至需要生成不同的任務來執行。所以這和統一API是沖突的,這也是不完善的,
② 導致阿里雲被暫停合作的漏洞 究竟是什麼
新京報貝殼 財經 訊(記者 羅亦丹)因發現安全漏洞後的處理問題,近日阿里雲引發了一波輿論。
據媒體報道,11月24日,阿里雲安全團隊向美國開源社區Apache(阿帕奇)報告了其所開發的組件存在安全漏洞。12月22日,因發現Apache Log4j2組件嚴重安全漏洞隱患後,未及時向電信主管部門報告,阿里雲被暫停作為工信部網路安全威脅信息共享平台合作單位6個月。
12月23日,阿里雲在官方微信公號表示,其一名研發工程師發現Log4j2 組件的一個安全bug,遂按業界慣例以郵件方式向軟體開發方Apache開源社區報告這一問題請求幫助,「隨後,該漏洞被外界證實為一個全球性的重大漏洞。阿里雲因在早期未意識到該漏洞的嚴重性,未及時共享漏洞信息。」
「之前發現這樣的漏洞都是直接通知軟體開發方,這確實屬於行業慣例,但是《網路產品安全漏洞管理規定》出台後,要求漏洞要同時通報給國家主管部門。由於上述法案頒布的時間不是很長,我覺得漏洞的發現者,最開始也未必能評估到漏洞影響的范圍這么大。所以嚴格來說,這個處理不算冤,但處罰其實也沒有那麼嚴格,一不罰錢,二不影響做業務。」」某安全公司技術總監鄭陸(化名)告訴貝殼 財經 記者。
漏洞影響有多大?
那麼,如何理解Log4j2漏洞的嚴重程度呢?
安全公司奇安信將Apache Log4j2漏洞的CERT風險等級定為「高危」,奇安信描述稱,Apache Log4j 是 Apache 的一個開源項目,通過定義每一條日誌信息的級別,能夠更加細致地控制日誌生成過程,「Log4j2中存在JNDI注入漏洞,當程序將用戶輸入的數據進行日誌記錄時,即可觸發此漏洞,成功利用此漏洞可以在目標伺服器上執行任意代碼。」
安域雲防護的監測數據顯示,截至12月10日中午12點,已發現近1萬次利用該漏洞的攻擊行為。據了解,該漏洞影響范圍大,利用方式簡單,攻擊者僅需向目標輸入一段代碼,不需要用戶執行任何多餘操作即可觸發該漏洞,使攻擊者可以遠程式控制制受害者伺服器,90%以上基於java開發的應用平台都會受到影響。
「Apache Log4j RCE 漏洞之所以能夠引起安全圈的極大關注,不僅在於其易於利用,更在於它巨大的潛在危害性。當前幾乎所有的技術巨頭都在使用該開源組件,它所帶來的危害就像多米諾骨牌一樣,影響深遠。」奇安信安全專家對貝殼 財經 記者表示。
「這個漏洞嚴重性在於兩點,一是log4j作為java日誌的基礎組件使用相當廣泛,Apache和90%以上的java應用受到影響。二是這個漏洞的利用入口非常多,幾乎達到了(只要)是這個漏洞影響的范圍,只要有輸入的地方就受到影響。用戶或者攻擊者直接可以輸入的地方比如登錄用戶名、查詢信息、設備名稱等等,以及一些其他來源的被攻擊者污染的數據來源比如網上一些頁面等等。」從事多年漏洞挖掘的安全行業老兵,網友「yuange1975」在微博發文稱。
「簡而言之,該漏洞算是這幾年來最大的漏洞了。」鄭陸表示。
在「yuange1975」看來,該漏洞出來後,因為影響太廣泛,IT圈都在加班加點修補漏洞。不過,一些圈子裡發文章為了說明這個漏洞的嚴重性,又有點用了過高評價這個漏洞的詞語,「我不否認這個漏洞很嚴重,肯定是排名很靠前的漏洞,但是要說是有史以來最大的網路漏洞,就是說目前所有已經發現公布的漏洞里排第一,這顯然有點誇大了。」
「log4j漏洞發現者恐怕發現漏洞時對這個漏洞認識不足,這個應用的范圍以及漏洞觸發路徑,我相信一直到阿里雲上報完漏洞,恐怕漏洞發現者都沒完全明白這個漏洞的真正嚴重性,有可能當成了Apache下一個普通插件的一個漏洞。」yuange1975表示。
9月1日起施行新規 專家:對於維護國家網路安全具有重大意義
據了解,業界的開源條例遵循的是《負責任的安全漏洞披露流程》,這份文件將漏洞披露分為5個階段,依次是發現、通告、確認、修復和發布。發現漏洞並上報給原廠商,是業內常見的程序漏洞披露的做法。
貝殼 財經 記者觀察到,白帽黑客建立漏洞發現與收集的平台並告知企業的做法一度在圈內流行。根據《 財經 天下》的報道,把漏洞報給原廠商而不是平台方,也會有潛在的好處。包括微軟、蘋果和谷歌在內的廠商對報告漏洞的人往往會有獎勵,「最高的能給到十幾萬美元」。更重要的是名譽獎勵。幾乎每一家廠商對第一個報告漏洞的人或者集體,都會公開致謝。「對於安全研究人員而言,這種名聲也會讓他們非常在意。
不過,今年9月1日後,這一行業「常見程序」就要發生變化。
7月13日,工信部、國家網信辦、公安部印發《網路產品安全漏洞管理規定》,要求任何組織或者個人設立的網路產品安全漏洞收集平台,應當在兩日內向工業和信息化部網路安全威脅和漏洞信息共享平台報送相關漏洞信息。該規定自2021年9月1日起施行。
值得注意的是,《規定》中也有漏洞發現者需要向產品相關提供者通報的條款。如《規定》第七條第一款顯示,發現或者獲知所提供網路產品存在安全漏洞後,應當立即採取措施並組織對安全漏洞進行驗證,評估安全漏洞的危害程度和影響范圍;對屬於其上游產品或者組件存在的安全漏洞,應當立即通知相關產品提供者。第七條第七款則表示,不得將未公開的網路產品安全漏洞信息向網路產品提供者之外的境外組織或者個人提供。
奇安信集團副總裁、補天漏洞響應平台主任張卓在接受新京報貝殼 財經 記者采訪時表示,《網路產品安全漏洞管理規定》釋放了一個重要信號:我國將首次以產品視角來管理漏洞,通過對網路產品漏洞的收集、研判、追蹤、溯源,立足於供應鏈全鏈條,對網路產品進行全周期的漏洞風險跟蹤,實現對我國各行各業網路安全的有效防護。在供應鏈安全威脅日益嚴重的全球形勢下,《規定》對於維護國家網路安全,保護網路產品和重要網路系統的安全穩定運行,具有重大意義。
張卓表示,《規定》第十條指出,任何組織或者個人設立的網路產品安全漏洞收集平台,應當向工業和信息化部備案。同時在第六條中指出,鼓勵相關組織和個人向網路產品提供者通報其產品存在的安全漏洞,還「鼓勵網路產品提供者建立所提供網路產品安全漏洞獎勵機制,對發現並通報所提供網路產品安全漏洞的組織或者個人給予獎勵。」這兩條規定規范了漏洞收集平台和白帽子的行為,有利於讓白帽子在合法合規的條件下發揮更大的 社會 價值。
③ 阿里雲如何配置apache
登錄到阿里雲伺服器上,在控制終端輸入以下命令:
yum install httpd httpd-devel
如果其他機器訪問這台服務無法顯示這個頁面,而直接在這台伺服器上可以訪問的話,可能是 CentOS 自帶的防火牆禁止了。只需要進入防火牆,將 「WWW」 對應的 「80」 埠打開即可。
END
默認根目錄是 /var/www/html
配置文件 /etc/httpd/conf/httpd.conf
其他配置存儲在 /etc/httpd/conf.d/ 目錄
注意事項