當前位置:首頁 » 編程軟體 » 預請求腳本

預請求腳本

發布時間: 2022-08-16 03:45:18

『壹』 介面post請求循環體的腳本怎麼寫

1.可以指定後續請求的名稱或ID,收集運行器將處理其餘的工作。

2.它可以在預請求或測試腳本中使用。如果有多個賦值,則優先使用最後一個設定值。3.如果請求中缺post .setnextrequest(),則集合運行器默認為線性執行,並移動到下一個請求。

4.一定要注意:在連續循環一個請求時,應該在某些邏輯中封裝setNextRequest,以確保請求不會無限期地運行,否則需要強制關閉收集運行器。

5.在action空白處,點擊insert—>step,輸入web_custom_request,雙擊選擇該函數,填入如下幾個參數值,然後就完成了。

6.這些東西其實很難,所以我們要做對它的話,就得要去研究它,然後來一步一步的嘗試做對,我們在研究它的過程中,一定是困難的,但是我們要耐得住困難,加油。

『貳』 LoadRunner原理

LoadRunner工作原理:

LoadRunner通過模擬上千萬用戶實施並發負載,實時性能監控的系統行為和性能方式來確認和查找問題。

1、VuGen發生器:捕捉用戶的業務流,並最終將其錄製成一個腳本:

(1)選擇相應的一種協議;

(2)在客戶端模擬用戶使用過程中的業務流程,並錄製成一個腳本;

(3)編輯腳本和設置Run-Time Settings項;

(4)編譯腳本生成一個沒有錯誤的可運行的腳本。

2、控制器(Controller):

(1)設計場景,包括手動場景設計和目標場景設計兩種方式;

(2)場景監控,可以實時監控腳本的運行的情況。可以通過添加計數器來監控Windows資源、應用伺服器和資料庫使用情況。

場景設計的目的是設計出一個最接近用戶實際使用的場景,場景設計越接近用戶使用的實際情況,測試出來的數據就越接近真實值。

3、負載發生器(Load Generators):模擬用戶對伺服器提交請求。

通常,在性能測試過程中會將控制器和負載發生器分開;當使用多台負載發生器時,一定要保證負載均衡(指在進行性能測試的過程中,保證每台負載發生器均勻地對伺服器進行施壓)。

4、分析器(Analysis):主要用於對測試結果進行分析。

其原理圖如下:

『叄』 轉運病人應急演練腳本,醫院火災應急預案演練腳本

提起轉運病人應急演練腳本,大家都知道,有人問醫院火災應急預案演練腳本,另外,還有人想問護理應急演練腳本(參考版),你知道這是怎麼回事?其實2017年醫院感染暴發應急處置演練腳本(2017.8),下面就一起來看看醫院火災應急預案演練腳本,希望能夠幫助到大家!

轉運病人應急演練腳本

1、轉運病人應急演練腳本:醫院火災應急預案演練腳本

內容來自用戶:柏華美ICU病人轉運演練。

演練預案名稱|當陽市醫院|火災應急疏散演練|演練日期|年8月28日|

主辦部門|應急辦、保衛科|指揮長|夏駿|預計時長|30分鍾|轉運病人的預案演練的目的。

參演部門|夏駿院長、副總指揮為徐波副院長,醫院消防安全委會成員、應急辦、醫教科、護理部、綜治辦、後勤保障科、急診科、各科室消防安全員|演練地點|外科樓住院部二層骨外三病區|

演|練|內|容|一、演練目的:為提高醫院各科室處置初期火災事故的技能和應急疏散的能力,全院各部門之間的配合和分工協作,保障患者及職工人身安全,限度減少事故傷害和財產損失。|二、演練方案及內容:|1、演練時間:年8月28日下午15:00-15:30。|2、演練地點:住院部二層骨外三病區3、模擬火災地點:住院樓二層骨外三病區生活區失火|1)觀摩地點1:住院部外停車場2)觀摩地點2:住院部15層電梯前室|4、演練器材:白煙1個、紅煙1個、毛巾50條、滅火器、對講機8部、消火栓、擔架3個、轉運平車及輪椅等。|5、演練內容:滅火應急疏散演練。模擬骨外三病區員工生活區發生火情,科室自救,火勢蔓延迅速,未能有效控制,向醫院微型消防站和區請求支援。|6、參與人員:共計人。|三、演習機構:根據演練分工,此次演練共有8個小組。|(一)滅火應急疏散指揮組(2人)|總指揮:院長夏駿|副總指揮:副院長徐波|成員:醫院消防安全委會成員、院辦、綜治辦、後勤保障科轉運意外應急預案腳本。

2、轉運病人應急演練腳本:護理應急演練腳本(參考版)

內容來自用戶:護理部

一、化療外滲應急處置流程及演練參考腳本

場景:甲在巡視病房時發現12床正在輸注化療柔紅黴素的手出現約1cm的輸液外滲,局部皮膚呈紅色。

2017年醫院感染暴發應急處置演練腳本(2017.8)

角色扮演:甲(者)、醫生、病人

甲:,你的輸液有些外滲,你先別動,我馬上來處理。(關閉輸液調節器,通知醫生,報告長,回室准備用物)

醫生:利多卡因O.1g加5mg扇形封閉,半小時後冰敷。

病人:醫生,這怎麼辦啊,會不會爛掉啊?

醫生:你別急,我們會處理的。

甲:,我現在先來給你抽回血,做個封閉,會有一點疼,堅持一下,我會盡量輕一點,你別緊張啊。(由原部位抽取3—5ml血液,拔針,局部行利多卡因放射狀封閉。)

病人:醫生,那我的葯沒打到血去怎麼辦,葯量不夠會影響嗎?

醫生:別擔心,根據外滲的面積估計你的葯量損失不足lO%,不會影響的。

甲:(將病人的患肢用綳帶懸吊抬高)

,封閉已經做完了,這只胳膊吊起來,恢復會快一些,你先休息,待會兒我再來看你。

病人:好,謝謝你們。院內轉運病人演練腳本。

半小時後轉運患者情景演練。

甲:,你的外滲處好一些了,現在再給你做個冰敷,冰敷可以使局部血管收縮,減輕因化療而引起的水腫,醫生已經給你開了一支歐萊凝膠,冷敷甲:甲:甲:,,你怎麼了15醫生;聯系手術室,准備急診手術乙:患者:長:你病人轉運途中突發意外腳本。

以上就是與醫院火災應急預案演練腳本相關內容,是關於醫院火災應急預案演練腳本的分享。看完轉運病人應急演練腳本後,希望這對大家有所幫助!

『肆』 AutoIT判斷計算機是否有管理員許可權,腳本是

最簡單的方法:在腳本開頭加一句預處理命令 #RequireAdmin
這樣就會在程序開始時請求管理員許可權。不是管理員賬戶登錄的話會彈出提示框請求輸入管理員賬號和密碼。

『伍』 關於腳本問題,請求大神

[@TakeOn1] #if ChecknameList ..\\QuestDiary\\挖礦\\押金記錄.txt checkitemw 鶴嘴鋤 1 #Act SendMsg 5 [提示]:你已經裝備鶴嘴鋤,可以開始挖礦了![~wk1] #ELSEACT takeoff 鶴嘴鋤 MESSAGEBOX 對不起,你沒有繳納押金,不能裝備鶴嘴鋤! break

『陸』 什麼是xss攻擊

一、什麼是跨站腳本攻擊
跨站腳本攻擊(Cross Site Scripting)縮寫為CSS,但這會與層疊樣式表(Cascading Style Sheets,CSS)的縮寫混淆。通常將跨站腳本攻擊縮寫為XSS。
跨站腳本攻擊(XSS),是最普遍的Web應用安全漏洞。這類漏洞能夠使得攻擊者嵌入惡意腳本代碼到正常用戶會訪問到的頁面中,當正常用戶訪問該頁面時,則可導致嵌入的惡意腳本代碼的執行,從而達到惡意攻擊用戶的目的。
二、跨站腳本攻擊的種類
從攻擊代碼的工作方式可以分為三個類型:
1、持久型跨站:最直接的危害類型,跨站代碼存儲在伺服器(資料庫)。
2、非持久型跨站:反射型跨站腳本漏洞,最普遍的類型。用戶訪問伺服器-跨站鏈接-返回跨站代碼。
3、DOM跨站(DOM XSS):DOM(document object model文檔對象模型),客戶端腳本處理邏輯導致的安全問題。
三、跨站腳本攻擊的手段和目的
常用的XSS攻擊手段和目的有:
1、盜用cookie,獲取敏感信息。
2、利用植入Flash,通過crossdomain許可權設置進一步獲取更高許可權;或者利用Java等得到類似的操作。
3、利用iframe、frame、XMLHttpRequest或上述Flash等方式,以(被攻擊)用戶的身份執行一些管理動作,或執行一些一般的如發微博、加好友、發私信等操作。
4、利用可被攻擊的域受到其他域信任的特點,以受信任來源的身份請求一些平時不允許的操作,如進行不當的投票活動。
5、在訪問量極大的一些頁面上的XSS可以攻擊一些小型網站,實現DDoS攻擊的效果。
四、跨站腳本攻擊的防禦
XSS攻擊主要是由程序漏洞造成的,要完全防止XSS安全漏洞主要依靠程序員較高的編程能力和安全意識,當然安全的軟體開發流程及其他一些編程安全原則也可以大大減少XSS安全漏洞的發生。這些防範XSS漏洞原則包括:
1、不信任用戶提交的任何內容,對所有用戶提交內容進行可靠的輸入驗證,包括對URL、查詢關鍵字、HTTP頭、REFER、POST數據等,僅接受指定長度范圍內、採用適當格式、採用所預期的字元的內容提交,對其他的一律過濾。盡量採用POST而非GET提交表單;對「<」,「>」,「;」,「」」等字元做過濾;任何內容輸出到頁面之前都必須加以en-code,避免不小心把htmltag顯示出來。
2、實現Session 標記(session tokens)、CAPTCHA(驗證碼)系統或者HTTP引用頭檢查,以防功能被第三方網站所執行,對於用戶提交信息的中的img等link,檢查是否有重定向回本站、不是真的圖片等可疑操作。
3、cookie 防盜。避免直接在cookie中泄露用戶隱私,例如email、密碼,等等;通過使cookie和系統IP綁定來降低cookie泄露後的危險。這樣攻擊者得到的cookie沒有實際價值,很難拿來直接進行重放攻擊。
4、確認接收的內容被妥善地規范化,僅包含最小的、安全的Tag(沒有JavaScript),去掉任何對遠程內容的引用(尤其是樣式表和JavaScript),使用HTTPonly的cookie。

『柒』 SHELL腳本是什麼

Shell Script,Shell腳本與Windows/Dos下的批處理相似,也就是用各類命令預先放入到一個文件中,方便一次性執行的一個程序文件,主要是方便管理員進行設置或者管理用的。但是它比Windows下的批處理更強大,比用其他編程程序編輯的程序效率更高,畢竟它使用了Linux/Unix下的命令。
換一種說法也就是,shell script是利用shell的功能所寫的一個程序,這個程序是使用純文本文件,將一些shell的語法與指令寫在裡面,然後用正規表示法,管線命令以及數據流重導向等功能,以達到我們所想要的處理目的。
更明白的來說,shell script就像早期dos年代的.bat,最簡單的功能就是將許多指令匯整寫一起,讓使用者很容易的就能夠一個操作執行多個命令,而shell script更是提供了數組,循環,條件以及邏輯判斷等重要功能,讓使用者可以直接以shell來寫程序,而不必使用類似C程序語言等傳統程序編寫的語法。
shell和shell腳本的區別:
shell是什麼呢?確切一點說,Shell就是一個命令行解釋器,它的作用就是遵循一定的語法將輸入的命令加以解釋並傳給系統。它為用戶提供了一個向Linux發送請求以便運行程序的介面系統級程序,用戶可以用Shell來啟動、掛起、停止甚至是編寫一些程序。 Shell本身是一個用C語言編寫的程序,它是用戶使用Linux的橋梁。Shell既是一種命令語言,又是一種程序設計語言(就是你所說的shell腳本)。作為命令語言,它互動式地解釋和執行用戶輸入的命令;作為程序設計語言,它定義了各種變數和參數,並提供了許多在高階語言中才具有的控制結構,包括循環和分支。它雖然不是 Linux系統內核的一部分,但它調用了系統內核的大部分功能來執行程序、創建文檔並以並行的方式協調各個程序的運行。

『捌』 如何在後台部署深度學習模型

搭建深度學習後台伺服器

我們的Keras深度學習REST API將能夠批量處理圖像,擴展到多台機器(包括多台web伺服器和Redis實例),並在負載均衡器之後進行循環調度。

為此,我們將使用:

  • KerasRedis(內存數據結構存儲)

  • Flask (python的微web框架)

  • 消息隊列和消息代理編程範例

  • 本篇文章的整體思路如下:

    我們將首先簡要討論Redis數據存儲,以及如何使用它促進消息隊列和消息代理。然後,我們將通過安裝所需的Python包來配置Python開發環境,以構建我們的Keras深度學習REST API。一旦配置了開發環境,就可以使用Flask web框架實現實際的Keras深度學習REST API。在實現之後,我們將啟動Redis和Flask伺服器,然後使用cURL和Python向我們的深度學習API端點提交推理請求。最後,我們將以對構建自己的深度學習REST API時應該牢記的注意事項的簡短討論結束。

    第一部分:簡要介紹Redis如何作為REST API消息代理/消息隊列

    測試和原文的命令一致。


    第三部分:配置Python開發環境以構建Keras REST API

    文章中說需要創建新的虛擬環境來防止影響系統級別的python項目(但是我沒有創建),但是還是需要安裝rest api所需要依賴的包。以下為所需要的包。


    第四部分:實現可擴展的Keras REST API

    首先是Keras Redis Flask REST API數據流程圖

    讓我們開始構建我們的伺服器腳本。為了方便起見,我在一個文件中實現了伺服器,但是它可以按照您認為合適的方式模塊化。為了獲得最好的結果和避免復制/粘貼錯誤,我建議您使用本文的「下載」部分來獲取相關的腳本和圖像。

    為了簡單起見,我們將在ImageNet數據集上使用ResNet預訓練。我將指出在哪裡可以用你自己的模型交換ResNet。flask模塊包含flask庫(用於構建web API)。redis模塊將使我們能夠與redis數據存儲介面。從這里開始,讓我們初始化將在run_keras_server.py中使用的常量.


    我們將向伺服器傳遞float32圖像,尺寸為224 x 224,包含3個通道。我們的伺服器可以處理一個BATCH_SIZE = 32。如果您的生產系統上有GPU(s),那麼您需要調優BATCH_SIZE以獲得最佳性能。我發現將SERVER_SLEEP和CLIENT_SLEEP設置為0.25秒(伺服器和客戶端在再次輪詢Redis之前分別暫停的時間)在大多數系統上都可以很好地工作。如果您正在構建一個生產系統,那麼一定要調整這些常量。

    讓我們啟動我們的Flask app和Redis伺服器:


    在這里你可以看到啟動Flask是多麼容易。在運行這個伺服器腳本之前,我假設Redis伺服器正在運行(之前的redis-server)。我們的Python腳本連接到本地主機6379埠(Redis的默認主機和埠值)上的Redis存儲。不要忘記將全局Keras模型初始化為None。接下來我們來處理圖像的序列化:


    Redis將充當伺服器上的臨時數據存儲。圖像將通過諸如cURL、Python腳本甚至是移動應用程序等各種方法進入伺服器,而且,圖像只能每隔一段時間(幾個小時或幾天)或者以很高的速率(每秒幾次)進入伺服器。我們需要把圖像放在某個地方,因為它們在被處理前排隊。我們的Redis存儲將作為臨時存儲。

    為了將圖像存儲在Redis中,需要對它們進行序列化。由於圖像只是數字數組,我們可以使用base64編碼來序列化圖像。使用base64編碼還有一個額外的好處,即允許我們使用JSON存儲圖像的附加屬性。

    base64_encode_image函數處理序列化。類似地,在通過模型傳遞圖像之前,我們需要反序列化圖像。這由base64_decode_image函數處理。

    預處理圖片


    我已經定義了一個prepare_image函數,它使用Keras中的ResNet50實現對輸入圖像進行預處理,以便進行分類。在使用您自己的模型時,我建議修改此函數,以執行所需的預處理、縮放或規范化。

    從那裡我們將定義我們的分類方法


    classify_process函數將在它自己的線程中啟動,我們將在下面的__main__中看到這一點。該函數將從Redis伺服器輪詢圖像批次,對圖像進行分類,並將結果返回給客戶端。

    在model = ResNet50(weights="imagenet")這一行中,我將這個操作與終端列印消息連接起來——根據Keras模型的大小,載入是即時的,或者需要幾秒鍾。

    載入模型只在啟動這個線程時發生一次——如果每次我們想要處理一個映像時都必須載入模型,那麼速度會非常慢,而且由於內存耗盡可能導致伺服器崩潰。

    載入模型後,這個線程將不斷輪詢新的圖像,然後將它們分類(注意這部分代碼應該時尚一部分的繼續)


    在這里,我們首先使用Redis資料庫的lrange函數從隊列(第79行)中獲取最多的BATCH_SIZE圖像。

    從那裡我們初始化imageIDs和批處理(第80和81行),並開始在第84行開始循環隊列。

    在循環中,我們首先解碼對象並將其反序列化為一個NumPy數組image(第86-88行)。

    接下來,在第90-96行中,我們將向批處理添加圖像(或者如果批處理當前為None,我們將該批處理設置為當前圖像)。

    我們還將圖像的id附加到imageIDs(第99行)。

    讓我們完成循環和函數

    在這個代碼塊中,我們檢查批處理中是否有圖像(第102行)。如果我們有一批圖像,我們通過模型(第105行)對整個批進行預測。從那裡,我們循環一個圖像和相應的預測結果(110-122行)。這些行向輸出列表追加標簽和概率,然後使用imageID將輸出存儲在Redis資料庫中(第116-122行)。

    我們使用第125行上的ltrim從隊列中刪除了剛剛分類的圖像集。最後,我們將睡眠設置為SERVER_SLEEP時間並等待下一批圖像進行分類。下面我們來處理/predict我們的REST API端點


    稍後您將看到,當我們發布到REST API時,我們將使用/predict端點。當然,我們的伺服器可能有多個端點。我們使用@app。路由修飾符以第130行所示的格式在函數上方定義端點,以便Flask知道調用什麼函數。我們可以很容易地得到另一個使用AlexNet而不是ResNet的端點,我們可以用類似的方式定義具有關聯函數的端點。你懂的,但就我們今天的目的而言,我們只有一個端點叫做/predict。

    我們在第131行定義的predict方法將處理對伺服器的POST請求。這個函數的目標是構建JSON數據,並將其發送回客戶機。如果POST數據包含圖像(第137和138行),我們將圖像轉換為PIL/Pillow格式,並對其進行預處理(第141-143行)。

    在開發這個腳本時,我花了大量時間調試我的序列化和反序列化函數,結果發現我需要第147行將數組轉換為C-contiguous排序(您可以在這里了解更多)。老實說,這是一個相當大的麻煩事,但我希望它能幫助你站起來,快速跑。

    如果您想知道在第99行中提到的id,那麼實際上是使用uuid(通用唯一標識符)在第151行生成的。我們使用UUID來防止hash/key沖突。

    接下來,我們將圖像的id和base64編碼附加到d字典中。使用rpush(第153行)將這個JSON數據推送到Redis db非常簡單。

    讓我們輪詢伺服器以返回預測

    我們將持續循環,直到模型伺服器返回輸出預測。我們開始一個無限循環,試圖得到157-159條預測線。從這里,如果輸出包含預測,我們將對結果進行反序列化,並將結果添加到將返回給客戶機的數據中。我們還從db中刪除了結果(因為我們已經從資料庫中提取了結果,不再需要將它們存儲在資料庫中),並跳出了循環(第163-172行)。

    否則,我們沒有任何預測,我們需要睡覺,繼續投票(第176行)。如果我們到達第179行,我們已經成功地得到了我們的預測。在本例中,我們向客戶機數據添加True的成功值(第179行)。注意:對於這個示例腳本,我沒有在上面的循環中添加超時邏輯,這在理想情況下會為數據添加一個False的成功值。我將由您來處理和實現。最後我們稱燒瓶。jsonify對數據,並將其返回給客戶端(第182行)。這就完成了我們的預測函數。

    為了演示我們的Keras REST API,我們需要一個__main__函數來實際啟動伺服器

    第186-196行定義了__main__函數,它將啟動classify_process線程(第190-192行)並運行Flask應用程序(第196行)。

    第五部分:啟動可伸縮的Keras REST API

    要測試我們的Keras深度學習REST API,請確保使用本文的「下載」部分下載源代碼示例圖像。從這里,讓我們啟動Redis伺服器,如果它還沒有運行:

  • redis-server

  • 然後,在另一個終端中,讓我們啟動REST API Flask伺服器:

  • python run_keras_server.py

  • 另外,我建議在向伺服器提交請求之前,等待您的模型完全載入到內存中。現在我們可以繼續使用cURL和Python測試伺服器。

    第七部分:使用cURL訪問Keras REST API

    使用cURL來測試我們的Keras REST API伺服器。這是我的家庭小獵犬Jemma。根據我們的ResNet模型,她被歸類為一隻擁有94.6%自信的小獵犬。

  • curl -X POST -F [email protected] 'http://localhost:5000/predict'

  • 你會在你的終端收到JSON格式的預測:

  • {"predictions": [{"label": "beagle","probability": 0.9461546540260315},{"label": "bluetick","probability": 0.031958919018507004},{"label": "redbone","probability": 0.006617196369916201},{"label": "Walker_hound","probability": 0.0033879687543958426},{"label": "Greater_Swiss_Mountain_dog","probability": 0.0025766862090677023}],"success": true}

  • 第六部分:使用Python向Keras REST API提交請求

    如您所見,使用cURL驗證非常簡單。現在,讓我們構建一個Python腳本,該腳本將發布圖像並以編程方式解析返回的JSON。

    讓我們回顧一下simple_request.py

  • # import the necessary packagesimport requests# initialize the Keras REST API endpoint URL along with the input# image pathKERAS_REST_API_URL = "http://localhost:5000/predict"IMAGE_PATH = "jemma.png"

  • 我們在這個腳本中使用Python請求來處理向伺服器提交數據。我們的伺服器運行在本地主機上,可以通過埠5000訪問端點/predict,這是KERAS_REST_API_URL變數(第6行)指定的。

    我們還定義了IMAGE_PATH(第7行)。png與我們的腳本在同一個目錄中。如果您想測試其他圖像,請確保指定到您的輸入圖像的完整路徑。

    讓我們載入圖像並發送到伺服器:

  • # load the input image and construct the payload for the requestimage = open(IMAGE_PATH, "rb").read()payload = {"image": image}# submit the requestr = requests.post(KERAS_REST_API_URL, files=payload).json()# ensure the request was sucessfulif r["success"]: # loop over the predictions and display them for (i, result) in enumerate(r["predictions"]): print("{}. {}: {:.4f}".format(i + 1, result["label"], result["probability"]))# otherwise, the request failedelse: print("Request failed")

  • 我們在第10行以二進制模式讀取圖像並將其放入有效負載字典。負載通過請求發送到伺服器。在第14行發布。如果我們得到一個成功消息,我們可以循環預測並將它們列印到終端。我使這個腳本很簡單,但是如果你想變得更有趣,你也可以使用OpenCV在圖像上繪制最高的預測文本。

    第七部分:運行簡單的請求腳本

    編寫腳本很容易。打開終端並執行以下命令(當然,前提是我們的Flask伺服器和Redis伺服器都在運行)。

  • python simple_request.py

  • 使用Python以編程方式使用我們的Keras深度學習REST API的結果

    第八部分:擴展深度學習REST API時的注意事項

    如果您預期在深度學習REST API上有較長一段時間的高負載,那麼您可能需要考慮一種負載平衡演算法,例如循環調度,以幫助在多個GPU機器和Redis伺服器之間平均分配請求。

    記住,Redis是內存中的數據存儲,所以我們只能在隊列中存儲可用內存中的盡可能多的圖像。

    使用float32數據類型的單個224 x 224 x 3圖像將消耗602112位元組的內存。

熱點內容
什麼是資源為什麼要研究資源配置 發布:2025-02-07 08:25:19 瀏覽:86
釣魚網站源碼製作 發布:2025-02-07 08:23:54 瀏覽:139
mac運行fl需要什麼配置 發布:2025-02-07 08:15:45 瀏覽:573
安卓怎麼做都比不了蘋果 發布:2025-02-07 08:12:47 瀏覽:238
怎麼給物理機配置ip地址 發布:2025-02-07 08:01:37 瀏覽:139
三國志13未加密 發布:2025-02-07 07:54:37 瀏覽:926
馬斯克中國訪問 發布:2025-02-07 07:54:29 瀏覽:102
資料庫有表 發布:2025-02-07 07:50:49 瀏覽:29
基於nginx搭建圖片伺服器原理 發布:2025-02-07 07:44:18 瀏覽:449
java等待 發布:2025-02-07 07:28:24 瀏覽:613