雲存儲測評
❶ 如何測試雲硬碟
問題
UOS公有雲開放以來,一些用戶反應用dd命令測試出來的1TB雲硬碟的吞吐率(MBPS)只有128MB/s,而不是我們SLA保證的170MB /s ,這是為什麼?下面我會簡單介紹如何測試硬碟,RAID,SAN,SSD,雲硬碟等,然後再來回答上面的問題。
測試前提
我們在進行測試時,都會分清楚:
測試對象:要區分硬碟、SSD、RAID、SAN、雲硬碟等,因為它們有不同的特點
測試指標:IOPS和MBPS(吞吐率),下面會具體闡述
測試工具:Linux下常用Fio、dd工具, Windows下常用IOMeter,
測試參數: IO大小,定址空間,隊列深度,讀寫模式,隨機/順序模式
測試方法:也就是測試步驟。
測試是為了對比,所以需要定性和定量。在宣布自己的測試結果時,需要說明這次測試的工具、參數、方法,以便於比較。
存儲系統模型
為了更好的測試,我們需要先了解存儲系統,塊存儲系統本質是一個排隊模型,我們可以拿銀行作為比喻。還記得你去銀行辦事時的流程嗎?
去前台取單號
等待排在你之前的人辦完業務
輪到你去某個櫃台
櫃台職員幫你辦完手續1
櫃台職員幫你辦完手續2
櫃台職員幫你辦完手續3
辦完業務,從櫃台離開
如何評估銀行的效率呢:
服務時間 = 手續1 + 手續2 + 手續3
響應時間 = 服務時間 + 等待時間
性能 = 單位時間內處理業務數量
那銀行如何提高效率呢:
增加櫃台數
降低服務時間
因此,排隊系統或存儲系統的優化方法是
增加並行度
降低服務時間
硬碟測試
硬碟原理
我們應該如何測試SATA/SAS硬碟呢?首先需要了解磁碟的構造,並了解磁碟的工作方式:
每個硬碟都有一個磁頭(相當於銀行的櫃台),硬碟的工作方式是:
收到IO請求,得到地址和數據大小
移動磁頭(定址)
找到相應的磁軌(定址)
讀取數據
傳輸數據
則磁碟的隨機IO服務時間:
服務時間 = 尋道時間 + 旋轉時間 + 傳輸時間
對於10000轉速的SATA硬碟來說,一般尋道時間是7 ms,旋轉時間是3 ms, 64KB的傳輸時間是 0.8 ms, 則SATA硬碟每秒可以進行隨機IO操作是 1000/(7 + 3 + 0.8) = 93,所以我們估算SATA硬碟64KB隨機寫的IOPS是93。一般的硬碟廠商都會標明順序讀寫的MBPS。
我們在列出IOPS時,需要說明IO大小,定址空間,讀寫模式,順序/隨機,隊列深度。我們一般常用的IO大小是4KB,這是因為文件系統常用的塊大小是4KB。
使用dd測試硬碟
雖然硬碟的性能是可以估算出來的,但是怎麼才能讓應用獲得這些性能呢?對於測試工具來說,就是如何得到IOPS和MBPS峰值。我們先用dd測試一下SATA硬碟的MBPS(吞吐量)。
#dd if=/dev/zero of=/dev/sdd bs=4k count=300000 oflag=direct
記錄了300000+0 的讀入 記錄了300000+0 的寫出 1228800000位元組(1.2 GB)已復制,17.958 秒,68.4 MB/秒
#iostat -x sdd 5 10
...
Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s avgrq-sz avgqu-sz await svctm %util
sdd 0.00 0.00 0.00 16794.80 0.00 134358.40 8.00 0.79 0.05 0.05 78.82
...
為什麼這塊硬碟的MBPS只有68MB/s? 這是因為磁碟利用率是78%,沒有到達95%以上,還有部分時間是空閑的。當dd在前一個IO響應之後,在准備發起下一個IO時,SATA硬碟是空閑的。那麼如何才能提高利用率,讓磁碟不空閑呢?只有一個辦法,那就是增加硬碟的隊列深度。相對於CPU來說,硬碟屬於慢速設備,所有操作系統會有給每個硬碟分配一個專門的隊列用於緩沖IO請求。
隊列深度
什麼是磁碟的隊列深度?
在某個時刻,有N個inflight的IO請求,包括在隊列中的IO請求、磁碟正在處理的IO請求。N就是隊列深度。
加大硬碟隊列深度就是讓硬碟不斷工作,減少硬碟的空閑時間。
加大隊列深度 -> 提高利用率 -> 獲得IOPS和MBPS峰值 -> 注意響應時間在可接受的范圍內
增加隊列深度的辦法有很多
使用非同步IO,同時發起多個IO請求,相當於隊列中有多個IO請求
多線程發起同步IO請求,相當於隊列中有多個IO請求
增大應用IO大小,到達底層之後,會變成多個IO請求,相當於隊列中有多個IO請求 隊列深度增加了。
隊列深度增加了,IO在隊列的等待時間也會增加,導致IO響應時間變大,這需要權衡。讓我們通過增加IO大小來增加dd的隊列深度,看有沒有效果:
dd if=/dev/zero of=/dev/sdd bs=2M count=1000 oflag=direct
記錄了1000+0 的讀入 記錄了1000+0 的寫出 2097152000位元組(2.1 GB)已復制,10.6663 秒,197 MB/秒
Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s avgrq-sz avgqu-sz await svctm %util
sdd 0.00 0.00 0.00 380.60 0.00 389734.40 1024.00 2.39 6.28 2.56 97.42
可以看到2MB的IO到達底層之後,會變成多個512KB的IO,平均隊列長度為2.39,這個硬碟的利用率是97%,MBPS達到了197MB/s。(為什麼會變成512KB的IO,你可以去使用Google去查一下內核參數 max_sectors_kb的意義和使用方法 )
也就是說增加隊列深度,是可以測試出硬碟的峰值的。
使用fio測試硬碟
現在,我們來測試下SATA硬碟的4KB隨機寫的IOPS。因為我的環境是Linux,所以我使用FIO來測試。
$fio -ioengine=lio -bs=4k -direct=1 -thread -rw=randwrite -size=1000G -filename=/dev/vdb \
-name="EBS 4K randwrite test" -iodepth=64 -runtime=60
簡單介紹fio的參數
ioengine: 負載引擎,我們一般使用lio,發起非同步IO請求。
bs: IO大小
direct: 直寫,繞過操作系統Cache。因為我們測試的是硬碟,而不是操作系統的Cache,所以設置為1。
rw: 讀寫模式,有順序寫write、順序讀read、隨機寫randwrite、隨機讀randread等。
size: 定址空間,IO會落在 [0, size)這個區間的硬碟空間上。這是一個可以影響IOPS的參數。一般設置為硬碟的大小。
filename: 測試對象
iodepth: 隊列深度,只有使用lio時才有意義。這是一個可以影響IOPS的參數。
runtime: 測試時長
下面我們做兩次測試,分別 iodepth = 1和iodepth = 4的情況。下面是iodepth = 1的測試結果。
上圖中藍色方框裡面的是測出的IOPS 230, 綠色方框裡面是每個IO請求的平均響應時間,大約是4.3ms。黃色方框表示95%的IO請求的響應時間是小於等於 9.920 ms。橙色方框表示該硬碟的利用率已經達到了98.58%。
下面是 iodepth = 4 的測試:
我們發現這次測試的IOPS沒有提高,反而IO平均響應時間變大了,是17ms。
為什麼這里提高隊列深度沒有作用呢,原因當隊列深度為1時,硬碟的利用率已經達到了98%,說明硬碟已經沒有多少空閑時間可以壓榨了。而且響應時間為 4ms。 對於SATA硬碟,當增加隊列深度時,並不會增加IOPS,只會增加響應時間。這是因為硬碟只有一個磁頭,並行度是1, 所以當IO請求隊列變長時,每個IO請求的等待時間都會變長,導致響應時間也變長。
這是以前用IOMeter測試一塊SATA硬碟的4K隨機寫性能,可以看到IOPS不會隨著隊列深度的增加而增加,反而是平均響應時間在倍增。
隊列深度 IOPS 平均響應時間
1 332.931525 3.002217
2 333.985074 5.986528
4 332.594653 12.025060
8 336.568012 23.766359
16 329.785606 48.513477
32 332.054590 96.353934
64 331.041063 193.200815
128 331.309109 385.163111
256 327.442963 774.401781
定址空間對IOPS的影響
我們繼續測試SATA硬碟,前面我們提到定址空間參數也會對IOPS產生影響,下面我們就測試當size=1GB時的情況。
我們發現,當設置size=1GB時,IOPS會顯著提高到568,IO平均響應時間會降到7ms(隊列深度為4)。這是因為當定址空間為1GB時,磁頭需要移動的距離變小了,每次IO請求的服務時間就降低了,這就是空間局部性原理。假如我們測試的RAID卡或者是磁碟陣列(SAN),它們可能會用Cache把這1GB的數據全部緩存,極大降低了IO請求的服務時間(內存的寫操作比硬碟的寫操作快很1000倍)。所以設置定址空間為1GB的意義不大,因為我們是要測試硬碟的全盤性能,而不是Cache的性能。
硬碟優化
硬碟廠商提高硬碟性能的方法主要是降低服務時間(延遲):
提高轉速(降低旋轉時間和傳輸時間)
增加Cache(降低寫延遲,但不會提高IOPS)
提高單磁軌密度(變相提高傳輸時間)
RAID測試
RAID0/RAID5/RAID6的多塊磁碟可以同時服務,其實就是提高並行度,這樣極大提高了性能(相當於銀行有多個櫃台)。
以前測試過12塊RAID0,100GB的定址空間,4KB隨機寫,逐步提高隊列深度,IOPS會提高,因為它有12塊磁碟(12個磁頭同時工作),並行度是12。
隊列深度 IOPS 平均響應時間
1 1215.995842 0.820917
2 4657.061317 0.428420
4 5369.326970 0.744060
8 5377.387303 1.486629
16 5487.911660 2.914048
32 5470.972663 5.846616
64 5520.234015 11.585251
128 5542.739816 23.085843
256 5513.994611 46.401606
RAID卡廠商優化的方法也是降低服務時間:
使用大內存Cache
使用IO處理器,降低XOR操作的延遲。
使用更大帶寬的硬碟介面
SAN測試
對於低端磁碟陣列,使用單機IOmeter就可以測試出它的IOPS和MBPS的峰值,但是對於高端磁碟陣列,就需要多機並行測試才能得到IOPS和MBPS的峰值(IOmeter支持多機並行測試)。下圖是紀念照。
磁碟陣列廠商通過以下手段降低服務時間:
更快的存儲網路,比如FC和IB,延時更低。
讀寫Cache。寫數據到Cache之後就馬上返回,不需要落盤。 而且磁碟陣列有更多的控制器和硬碟,大大提高了並行度。
現在的存儲廠商會找SPC幫忙測試自己的磁碟陣列產品(或全快閃記憶體陣列), 並給SPC支付費用,這就是赤裸裸的標准壟斷。國內也有做存儲系統測試的,假如你要測試磁碟陣列,可以找NSTC (廣告時間)。
SSD測試
SSD的延時很低,並行度很高(多個nand塊同時工作),缺點是壽命和GC造成的響應時間不穩定。
推薦用IOMeter進行測試,使用大隊列深度,並進行長時間測試,這樣可以測試出SSD的真實性能。
下圖是storagereview對一些SSD硬碟做的4KB隨機寫的長時間測試,可以看出有些SSD硬碟的最大響應時間很不穩定,會飆高到幾百ms,這是不可接受的。
雲硬碟測試
我們通過兩方面來提高雲硬碟的性能的:
降低延遲(使用SSD,使用萬兆網路,優化代碼,減少瓶頸)
提高並行度(數據分片,同時使用整個集群的所有SSD)
在Linux下測試雲硬碟
在Linux下,你可以使用FIO來測試
操作系統:Ubuntu 14.04
CPU: 2
Memory: 2GB
雲硬碟大小: 1TB(SLA: 6000 IOPS, 170MB/s吞吐率 )
安裝fio:
#sudo apt-get install fio
再次介紹一下FIO的測試參數:
ioengine: 負載引擎,我們一般使用lio,發起非同步IO請求。
bs: IO大小
direct: 直寫,繞過操作系統Cache。因為我們測試的是硬碟,而不是操作系統的Cache,所以設置為1。
rw: 讀寫模式,有順序寫write、順序讀read、隨機寫randwrite、隨機讀randread等。
size: 定址空間,IO會落在 [0, size)這個區間的硬碟空間上。這是一個可以影響IOPS的參數。一般設置為硬碟的大小。
filename: 測試對象
iodepth: 隊列深度,只有使用lio時才有意義。這是一個可以影響IOPS的參數。
runtime: 測試時長
4K隨機寫測試
我們首先進行4K隨機寫測試,測試參數和測試結果如下所示:
#fio -ioengine=lio -bs=4k -direct=1 -thread -rw=randwrite -size=100G -filename=/dev/vdb \
-name="EBS 4KB randwrite test" -iodepth=32 -runtime=60
藍色方框表示IOPS是5900,在正常的誤差范圍內。綠色方框表示IO請求的平均響應時間為5.42ms, 黃色方框表示95%的IO請求的響應時間是小於等於 6.24 ms的。
4K隨機讀測試
我們再來進行4K隨機讀測試,測試參數和測試結果如下所示:
#fio -ioengine=lio -bs=4k -direct=1 -thread -rw=randread -size=100G -filename=/dev/vdb \
-name="EBS 4KB randread test" -iodepth=8 -runtime=60
512KB順序寫測試
最後我們來測試512KB順序寫,看看雲硬碟的最大MBPS(吞吐率)是多少,測試參數和測試結果如下所示:
#fio -ioengine=lio -bs=512k -direct=1 -thread -rw=write -size=100G -filename=/dev/vdb \
-name="EBS 512KB seqwrite test" -iodepth=64 -runtime=60
藍色方框表示MBPS為174226KB/s,約為170MB/s。
使用dd測試吞吐率
其實使用dd命令也可以測試出170MB/s的吞吐率,不過需要設置一下內核參數,詳細介紹在 128MB/s VS 170MB/s 章節中。
在Windows下測試雲硬碟
在Windows下,我們一般使用IOMeter測試磁碟的性能,IOMeter不僅功能強大,而且很專業,是測試磁碟性能的首選工具。
IOMeter是圖形化界面(濃濃的MFC框架的味道),非常方便操作,下面我將使用IOMeter測試我們UOS上1TB的雲硬碟。
操作系統:Window Server 2012 R2 64
CPU: 4
Memory: 8GB
雲硬碟大小: 1TB
當你把雲硬碟掛載到Windows主機之後,你還需要在windows操作系統裡面設置硬碟為聯機狀態。
4K隨機寫測試
打開IOMeter(你需要先下載),你會看到IOMeter的主界面。在右邊,你回發現4個worker(數量和CPU個數相同),因為我們現在只需要1個worker,所以你需要把其他3個worker移除掉。現在讓我們來測試硬碟的4K隨機寫,我們選擇好硬碟(Red Hat VirtIO 0001),設置定址空間(Maximum Disk Size)為50GB(每個硬碟扇區大小是512B,所以一共是 50*1024*1024*1024/512 = 104857600),設置隊列深度(Outstanding I/Os)為64。
然後在測試集中選擇」4KiB ALIGNED; 0% Read; 100% random(4KB對齊,100%隨機寫操作)」 測試
然後設置測試時間,我們設置測試時長為60秒,測試之前的預熱時間為10秒(IOMeter會發起負載,但是不統計這段時間的結果)。
在最後測試之前,你可以設置查看實時結果,設置實時結果的更新頻率是5秒鍾。最後點擊綠色旗子開始測試。
在測試過程中,我們可以看到實時的測試結果,當前的IOPS是6042,平均IO請求響應時間是10.56ms,這個測試還需要跑38秒,這個測試輪回只有這個測試。
我們可以看到IOMeter自動化程度很高,極大解放測試人員的勞動力,而且可以導出CSV格式的測試結果。
順序讀寫測試
我們再按照上面的步驟,進行了順序讀/寫測試。下面是測試結果:
IO大小 讀寫模式 隊列深度 MBPS
順序寫吞吐測試 512KB 順序寫 64 164.07 MB/s
順序讀吞吐測試 256KB 順序讀 64 179.32 MB/s
雲硬碟的響應時間
當前雲硬碟寫操作的主要延遲是
網路傳輸
多副本,寫三份(數據強一致性)
三份數據都落盤(數據持久化)之後,才返回
IO處理邏輯
我們當前主要是優化IO處理邏輯,並沒有去優化2和3,這是因為我們是把用戶數據的安全性放在第一位。
128MB/s VS 170MB/s
回到最開始的問題 「為什麼使用dd命令測試雲硬碟只有128MB/s」, 這是因為目前雲硬碟在處理超大IO請求時的延遲比SSD高(我們會不斷進行優化),現在我們有兩種方法來獲得更高的MBPS:
設置max_sectors_kb為256 (系統默認為512),降低延遲
使用fio來測試,加大隊列深度
通過設置max_sectors_kb這個參數,使用dd也可以測出170MB/s的吞吐量
root@ustack:~# cat /sys/block/vdb/queue/max_sectors_kb
512
root@ustack:~# echo "256" > /sys/block/vdb/queue/max_sectors_kb
root@ustack:~#
root@ustack:~# dd if=/dev/zero of=/dev/vdb bs=32M count=40 oflag=direct
40+0 records in
40+0 records out
1342177280 bytes (1.3 GB) copied, 7.51685 s, 179 MB/s
root@ustack:~#
同時查看IO請求的延遲:
root@ustack:~# iostat -x vdb 5 100
...
Device: rrqm/s wrqm/s r/s w/s rkB/s wkB/s avgrq-sz avgqu-sz await r_await w_await svctm %util
vdb 0.00 0.00 0.00 688.00 0.00 176128.00 512.00 54.59 93.47 0.00 93.47 1.40 96.56
下面是使用fio工具的測試結果,也可以得到170MB/s的吞吐率。
不可測試的指標
IOPS和MBPS是用戶可以使用工具測試的指標,雲硬碟還有一些用戶不可測量的指標
數據一致性
數據持久性
數據可用性
這些指標我們只能通過根據系統架構和約束條件計算得到,然後轉告給用戶。這些指標衡量著公有雲廠商的良心,有機會會專門進行介紹。
總結
上面介紹了一下測試工具和一些觀點,希望對你有所幫助。
測試需要定性和定量
了解存儲模型可以幫助你更好的進行測試
增加隊列深度可以有效測試出IOPS和MBPS的峰值
❷ 聯想個人雲存儲 T1 打造屬於家庭的數據中心
張陽
【環球網 科技 測評 張益達】在家辦公期間閑來無事,看著各種各樣的手機、U盤、硬碟等電子產品,裡面存儲了大量的數據,益達決定整理一下這些數據資產,如果只是一股腦的扔進一塊硬碟當中,雖然或許省事,但是既不利於分類管理,更不利於日後的存取使用,更何況其中有不少益達辛苦下載的高清影視資源,如果不好好利用一下家中的大屏豈不太浪費了些,於是搭建一個個人雲存儲成為了最佳解決方案,也就是NAS即網路附加存儲(Network Attached Storage),通過網路提供數據訪問服務。
起初益達想過使用老舊的電腦來改造一個個人NAS,但是研究了一番之後,首先用舊電腦組裝的NAS首先沒有那麼大的存儲空間,其次穩定性差,能源能耗也比較高,需要研究替代的整體方案比較復雜,想了想,還是果斷放棄了這一想法。
那就只能去看看成品NAS了,對比了一下群暉、威聯通等等知名品牌,好雖然是好,不過這動輒2-3千的價格,讓益達還是有些望而卻步,最終益達選中了聯想聯想個人雲存儲4TB版,理由很簡單,性價比極高。
首先配置上聯想個人雲存儲,晶元採用ARM Cortex A53內核,四核心,主頻1.4GHz。圖形處理器是Mali T820 MP3,支持10bit HDR 4KP60 H265以及VP9 4KP60視頻解碼,同時支持HD 1080P編碼。2GB運存,4T版附帶一個4T容量的2.5英寸硬碟。
要知道現在僅僅是一個2.5英寸4T容量硬碟售價都在900元以上,而且NAS產品與說白了與電腦還是有著千絲萬縷的聯系,聯想的產品想來質量、做工、軟體都完全可以信賴,所以說,這款產品的性價比是非常高的。
產品拿到後,益達發現因為使用了2.5英寸硬碟的關系,聯想個人雲存儲的體積十分小巧,白色廊柱型機身設計,靈感來自於古希臘帕特農神廟的多立克柱式的外觀,金色底座,底座部分分布著大片的散熱口,整體看和一台路由器大小差不了許多。機身背面有「reset復位」孔,2個USB3.0介面,1個網口,1個電源介面,可以說整體的感覺還真是很象個路由器。
輕輕按壓打開上頂蓋,能看到左右兩個硬碟架,向上一提就可以將架子提出,操作非常簡便,下一步需要手動將硬碟安裝進去,插入硬碟,使用隨機附帶的小螺絲刀將螺絲擰緊,防止硬碟的晃動發生數據損壞。安裝完畢,通電即可開機,按照說明書的指示,橙色燈交替閃爍,設備進入待綁定狀態。
接下來,根據說明書指示,在手機端下載數據守護者客戶端,注冊賬號,登錄客戶端,使用客戶端的掃碼功能掃描頂蓋上附著的二維碼對設備進行綁定,綁定成功之後會要求選擇磁碟組模式,一種是RAID1模式,可以雙盤互為備份,一旦一個盤出現了問題,另一個盤還能確保資料無虞。另外一種是Large模式,兩個盤變為一個大硬碟,好處是硬碟容量得到最大化使用,但是同時失去了安全備份的能力。目前益達只有一塊硬碟所以選擇哪個並不影響,但是益達還是比較傾向於RAID1模式的,畢竟4TB的容量其實對一般家庭使用來說足夠用的了,還是數據更珍貴,選擇一種模式之後,會對硬碟進行格式化,之後設備會自動進行重啟,綁定完成就可以正常進行使用了。
點擊客戶端中的+號圖標就可以上傳你的數據資料了,上傳的所有內容都會存儲在我的空間里,會自動按照圖片或者視頻等等文件類型進行分類,無需自己手動建立各種類型的文件夾,上傳的速度大概在10Mb/s左右,益達傳輸了10GB左右的文件,10分鍾左右就傳完了速度很快,如果量比較大的化大概要用一天時間傳完幾百GB的文件,不過這個設備本身就像是路由器一樣需要長期開著的,所以其實不知不覺也就傳完了。
Windows平台下的客戶端,界面和使用方式與大部分網盤客戶端幾乎無異,除了可以管理本機文件也可以管理外部存儲,同時還支持網路雲盤文件下載到設備以及從設備上傳到網路雲的功能。
另外一個很重要的操作就是要在電視中安裝客戶端,手機客戶端掃碼登陸,這樣家裡的大屏就可以暢享聯想個人雲存儲上的影音文件了,等於多了一個家庭媒體中心。
另外一個最有用的功能,莫過於手機備份,可以在其中設置將手機相冊進行自動備份,相信很多iPhone的用戶都遇到過雲存儲空間不足的問題,而且很多人都沒有購買蘋果的iCloud空間,這時候就可以自動備份到你的私人雲盤中。
相對於目前市場上的網盤,聯想個人雲存儲的優勢在於無需會員才能提升下載速度,你的網盤你做主,還可以將文件分享給朋友、同事,文件大小沒有限制,對於當前更多是遠程辦公的方式極其便捷。
如果是企業使用,聯想個人雲存儲傳輸的時候採用SDVN技術加密,通過SDVN網路虛擬化技術,在互聯網真實網路之上建立安全的疊加網,實現IP層的網路虛擬化,能夠分離網路控制層和數據通訊層。所有應用數據均在虛擬化層上傳輸,保障數據在互聯網上的傳輸安全可靠。避免出現因為文件分享導致的文件被竊取的情況發生。
耗電量因為手頭沒有測試設備暫時沒有進行測試,不過益達看了看網友的測試數據,大體上一年所產生的電費大概30元左右。
總結而言,對大部分家用用戶而言,聯想個人雲存儲T1從軟、硬體上都很好的滿足了家庭用戶的使用需要:穩定性強,24x7穩定無故障運行,聯想的電腦的品質無需多言;外觀精美,體積小巧,便於放置;操作簡單,多端通用,幾乎無需學習操作方法;能耗低,以極低的成本組建起一個家庭私有雲還是相當有成就感的,而且使用上極為簡便。雖然可玩性可能較之一些品牌的NAS產品弱了些,但是家庭使用,穩定、便捷、好用其實就是最大的需求。
責編:張陽
版權作品,未經環球網 huanqiu.com 書面授權,嚴禁轉載,違者將被追究法律責任。
❸ 聯想個人雲存儲A1評測:容量大不限速,這才是最具性價比的高速「網盤」
如今每個人可能都擁有一個網路雲盤,雲存儲概念的興起方便了我們在不同的設備端共享文件,提升了各行各業的工作效率,但是伴隨方便的同時數據安全卻令人擔憂。時至今日,網路雲盤已經成為家庭或個人不可或缺的工具,為了更好的保護消費者的數據,私有雲存儲產品孕育而生。
個人雲存儲A1是聯想剛剛發布的產品,雖然稱之為「雲」,實際上數據是保存在本地,而文件分享也會通過私有通道在不同平台傳播,相比網路雲存儲來說當然更讓人放心;其次,目前大多數網路雲盤為了盈利都需要花錢開通會員才能滿速進行文件下載/上傳,而聯想個人雲存儲A1的傳輸速度只受你的網路環境影響。
外觀設計:經典的多立克柱典雅大氣
聯想個人雲存儲A1與上一代產品基本保持了相同的設計,A1整體上是橢圓形的柱體,採用立式放置節約了家庭空間。A1的外殼採用了多立克柱設計,垂直的棱條不僅加強了A1外殼的硬度,同時也讓A1顯得更加精緻。
體驗總結
總體上來說聯想個人雲存儲A1使用起來非常簡單,就算是NAS領域的小白用戶也能輕松上手,而且A1的應用與功能也能完全滿足普通用戶的需求。如果你是一位喜歡拍照、拍視頻的用戶,聯想個人雲存儲A1就可以作為你的手機擴展空間,保存你的照片與視頻;如果你是一位電影愛好者,A1也可以成為你的私人影庫,只要網路環境允許本地播放順暢無卡頓。
對於現在的網路雲盤來說,本地的個人雲盤具有太多優勢,不用再花錢購買會員換來下載速度,也不用擔心數據放在網路雲盤上不安全。而在個人雲盤中,聯想個人雲存儲A1就是一款非常不錯的產品,如果你受夠了網盤那些限速、會員收費機制,那麼就換一個聯想個人雲存儲A1吧!
❹ 家庭魔術存儲—Magic M2 私有雲盤 開箱與評測
NAS 是 Network-Attached Storage 的縮寫,簡單的說其實和移動硬碟類似給電腦提供了額外的存儲空間。而移動硬碟通常連在一台計算機的 USB 介面上,想用在別處需要先在系統里卸載它,從介面上拔下來,再插到另外的計算機上。這種方式在時間和空間上都有限制,同一時間只能接在一台計算機上,空間上也需要和使用它的計算機放得足夠近,而且同時存在硬碟損壞的風險。而 NAS 和移動硬碟不一樣,通過網路和各種計算設備相連接。這樣多個設備就能夠同時分享,另一方面也擺脫了空間上的局限——只要網路能連上的地方你都能用,並且NAS 產品多數都可以接上不止一塊硬碟,家用產品中雙盤位和四盤位比較常見,通常配合RAID的方式進行存儲。
文件存取是 NAS 最基礎的功能,在此之上又派生出很多應用。常見的比如說數據備份,計算機和手機可以設置成定期自動在 NAS 上保存備份,不必再擔心哪一天硬碟掛了或者手機丟了就再也找不回重要的文件和照片。雲端同步,可以在家裡和辦公室用不同的計算機,甚至是在路上的時候打開手機隨時編輯同一份文檔,再也不必藉助郵件或者U盤在多個設備之間來回拷貝。再比如說影音 娛樂 ,不在家的時候掏出手機讓 NAS 從 BT 或者迅雷下載高清電影,回到家打開電視就能直接播放。
雖然NAS優勢很多,也不是沒有代價。首先,為了聯網和應對多個設備的訪問,NAS 需要有一定的計算能力——它自己就是一台計算機或者說伺服器,有自己的 CPU 和內存。移動硬碟相對就簡單多了,硬碟盒裡面主要是把數據流在不同的硬體介面之間進行傳遞。不算上硬碟的成本,現在一個普通家用 NAS 的價格少說也是普通移動硬碟盒的十倍以上。其次,現在多數的移動硬碟用一根 USB 3.0 的數據線接在計算機上就可以快速地讀寫文件,而 NAS 如果想達到與之相當的傳輸速度,要依靠高速網路,這樣就需要千兆交換機、千兆網線、5GHz 高速無線路由器等等。部署這樣一套基礎設施多少需要了解一點網路知識,當然也免不了花費些銀兩。
當一開始看到這個產品的時候還是有些期待的。因為,對於新華三的初步了解,它以路由器、交換機為主,最近幾年也開始涉及了伺服器、雲存儲、雲計算的方面,並且定位目標主要以政府、醫療、教育、交通、軍事部門等為主,家庭及個人消費者的產品,和其他友商(華為、海康、大華等)相對來說少了一點。
隨著各家雲盤廠商的服務關閉,私有雲盤、NAS顯得有些迫切。總不想著某一天自己的資料無法存放而頭痛。這次推出的 H3C Magic M2打上了家庭雲盤,不知道其真正的功能和體驗如何,是否稱得上雲盤或者家用NAS。
一、外包裝
拆開快遞拿出來的時候,感覺還是挺不錯的。現在的 科技 圈開始流行,沒有設計便是最好的設計 ,所以它整體的外觀比較方正,用了比較環保的紙盒,摸上去也挺有質感。正面就簡簡單單的一張照片和「無線私有雲盤」幾個字解決了所有的設計。背面依照慣例,簡單介紹介紹產品型號和主要技術特點。
來個整體的開箱照片,依次為電源適配器、說明書、主機、網線和HDMI線。
二、機身
Magic M2本身介麵包括了:USB 3.0*1;Magic口*1;功能按鍵*1;復位按鍵*1。
魔術家M2的機身側方是插口和按鍵,從左到右依次是「USB 3.0介面」、「Magic介面」、「復位鍵」、「功能鍵」。USB介面可外接優盤、硬碟等存儲設備。復位鍵長按5秒或以上,直到系統指示燈快速閃爍,設置恢復至出廠設置(硬碟中的文件不會丟失)。功能鍵短按1次,導入數據;短按2次,彈出USB設備;長按5秒或以上,設備進入/退出睡眠模式。
三、電源適配器
M2延續了之前Magic極簡設計,採用網口機身分離式設計,利用高清晰度多媒體介面(HDMI)替代傳統的RJ45介面,用一根簡化版HDMI線纜實現了網線與電線的雙重功能,將原本需要插在機身的網線全部通過HDMI線纜轉移到了電源適配器上,同時將原本標示的「WAN」或「LAN」改為了更加容易懂的「互聯網」和「電腦」,非常人性化。
四、關於硬碟的拆裝
安裝硬碟只需四步:1.沿綠色邊線向外打開外殼 2.抽出可拆卸式硬碟盒3.放入硬碟(正面向上,介面向硬碟盒外側)4.裝回外殼。硬碟需自行購買,推薦支持2.5英寸SATA介面硬碟(7mm和9.5mm厚度硬碟)。在說明書中很形象的通過圖片的形式進行可拆分講解,為了更加明顯的體現,加一個GIF動態圖來說明一下把。
M2支持PC端web管理以及移動端APP管控兩種方式,兩種方式既可以本地區域網控制,也能實現遠程管理。M2的APP基於CAPWAP協議的集中控制系統,可以實現無線網路設備的集中管理和自動配置功能,使用戶能在最短的時間內掌握無線網路的操控方法。對於愛折騰的旁友,因為過於簡單,也失去了一些可操作性。
1、PC端
在接通電源並連接至路由器下時,在網頁上輸入192.168.124.1(默認管理IP)即可打開管理頁面。管理頁面在也面的最下方,又分為了簡潔版和專業版,方便不同的人群對其的設置。
通過進一步的在專業版本的設置界面發現,M2也舉具備了普通路由器的功能,2.4G/5GWIFI的設置,用戶管理與升級,整體性能監控,基本的上網控制等。
1.1存儲功能
在我的計算機地址欄中輸入192.168.124.1,會跳出登陸界面,默認的賬號為magic,密碼為WIFI密碼。成功登陸後,便可以對內置硬碟進行訪問。(在剛對它設置時,會提示需要格式化硬碟,只有在格式化成功後才可以正常訪問)。在格式化完成後,在硬碟中會自動創建:其他,視頻,圖片,文檔,下載,音樂這幾個文件夾
我配置了一塊INTEL的SSD硬碟,我在視頻文件夾中嘗試放一部260M左右的視頻,實際測試中,上傳速度大約在11MB/S左右,也不能說特別把。
可惜的是,簡單的設置之後硬碟訪問與管理,只支持區域網內進行,也就是說異地電腦無法對其進行訪問和管理。感覺和雲盤有些出入了。。。當然,如果動手能力強的話,通過埠映射或者DDNS等其他方法應該也可以達到雲盤的效果,但上傳速度應該會有點感人。。。
2、APP
它的首頁還是偏向於簡單把,整體色調偏冷。
注冊好之後連接之前設置好的無線,它會提示輸入管理密碼,管理密碼和WIFI密碼一致。
2.1設置界面
設置界面其實更多的和PC端相類似,無非轉移到了APP上。只不過也比PC多了一些應用,比如硬碟備份、手機備份和離線下載。
Wi-Fi管理也很簡便,可以單獨設置2.4G和5G Wi-Fi,也可以開啟雙頻二合一功能,開啟後2.4G和5G將使用相同的配置,終端將自動適配更強的設備,近距離時自動連接到更高速的5G WiFi,遠距離時可以連接穿牆質量更好的2.4G WiFi。高級設置里也可根據個人需求對Wi-Fi一鍵開啟或斷開。
因為Magic M2有一個USB3.0的介面,也增加了可以外接移動硬碟的可能,所以在APP中也增加了硬碟備份的功能。
用戶控制界面,可以查看當前連接雲盤的有哪些設備的存在。
2.2離線設置下載
Magic M2支持離線下載功能,支持磁鏈接,HTTTP等和種子文件。但是在實際測試過程中,會出現一些鏈接能夠下載,一些鏈接無法下載的情況。當然,這也不是它一家的問題,在國內迅雷基本獨佔下載軟體的市場,再加最近迅雷關閉了第三方的離線下載通道,迫使多家廠商的離線下載功能失效,尋求其他廠商的合作。
為了測試,我隨機找了一部電影進行測試。1.8G的電影大小,算上獲取種子時間和下載時間差不多半天左右的時間。如果平時找到好看的電影,進行遠程離線下載,回家也就可以進行觀看了。前提是,你的保證鏈接的可下載性。
在存儲界面可以在不同的路徑下進行查看文件,需要注意的是,圖片可以在不同的網路環境下(區域網、異地WIFI、4G)進行查看。但是視頻文件在實際測試過程中發現,只能在區域網下觀看,4G和異地無線無法進行在線觀看,只能進行下載後查看。不知道後續是否能夠升級解決。
2.3備份功能
手機用戶只需點擊主頁面按鈕,選擇手機相冊,選擇需要上傳的圖片和視頻(可以勾選刪除源文件),點擊確定,編輯分類標簽即可上傳。照片視頻智能分類,支持標簽、時間、地點多種分類方式。
官方宣稱H3C Magic M2是針對個人數據市場特別定製的家庭私有雲盤,產品將網路存儲、文件管理、安全備份、社交分享、離線下載、無線路由等功能融為一體。採用最新的802.11ac技術,企業級防火牆,無線傳輸速率高達1167Mbps,內置1TB監控級硬碟(選配),是一款集網路存儲、文件管理、安全備份、社交分享、離線下載、無線路由、智能管理等功能為一體的家庭私有雲盤。
從我個人的角度去體驗和感受,取名為家庭私有雲盤,有點對不起這個「雲」字。從整體的框架、構造和功能上去解析:
1、硬體
因為Magic M2從整體的設計思路上來說,其實就是一個路由器,所謂的雲盤與備份,只是相當於在路由器上在硬體上直接增加了SATA的介面。其實和外界的帶有USB介面的路由去性質差不多,例如小米、華碩、360等。
使用網線和電源線合一的HDMI線的方式確實比較創新和方便,同時在電源適配器上以中文的形式註明,使消費者的入門難度降低,更加清楚明白WAN/LAN的區別。(一開始我以為那個HDMI的介面是輸出介面,可以將硬碟中的視頻輸出到電視等設備,當然後續升級可以考慮一下)
2、軟體
M2的軟體其實更偏向於傳統路由器的系統,和真正的雲盤或者家用NAS的Linux系統沒法比較。M2隻能定時更新固件,和nas的LINUX相比可操作性不高,但也因為如此,還是比較適合那些不太喜歡折騰的人們,安安單單的最好。
總結
1、家裡正好想換路由器的朋友們,這個產品還是挺好的,畢竟還帶著存儲功能。老人孩子的照片剛剛好可以存放。後續APP會升級,會增加隱私存放,用戶相對獨立,互不影響,居家旅行必備利器。
2、喜歡折騰或者最近考慮自己搭建家用NAS或者雲盤的,這個產品就不太適合你們了,不要被雲盤兩個字迷惑到了,他們並沒有雲服務,純硬體而已。它就是一個路由器帶了個硬碟槽位而已。
謝謝!多謝各位!
❺ 雲存儲的測試方案怎麼寫
1.上傳文件存儲到雲端
2.從雲端下載該文件
3.打開該文件
測試包括電腦系統、雲存儲客戶端、瀏覽器版本,上傳文件的類型,文件大小,分角色操作
你可以參考下夠快雲存儲,以他們為例測試
希望能幫到你