当前位置:首页 » 存储配置 » 云存储测评

云存储测评

发布时间: 2023-09-20 23:15:17

❶ 如何测试云硬盘

问题

UOS公有云开放以来,一些用户反应用dd命令测试出来的1TB云硬盘的吞吐率(MBPS)只有128MB/s,而不是我们SLA保证的170MB /s ,这是为什么?下面我会简单介绍如何测试硬盘,RAID,SAN,SSD,云硬盘等,然后再来回答上面的问题。

测试前提

我们在进行测试时,都会分清楚:

测试对象:要区分硬盘、SSD、RAID、SAN、云硬盘等,因为它们有不同的特点
测试指标:IOPS和MBPS(吞吐率),下面会具体阐述
测试工具:Linux下常用Fio、dd工具, Windows下常用IOMeter,
测试参数: IO大小,寻址空间,队列深度,读写模式,随机/顺序模式
测试方法:也就是测试步骤。
测试是为了对比,所以需要定性和定量。在宣布自己的测试结果时,需要说明这次测试的工具、参数、方法,以便于比较。

存储系统模型

为了更好的测试,我们需要先了解存储系统,块存储系统本质是一个排队模型,我们可以拿银行作为比喻。还记得你去银行办事时的流程吗?

去前台取单号
等待排在你之前的人办完业务
轮到你去某个柜台
柜台职员帮你办完手续1
柜台职员帮你办完手续2
柜台职员帮你办完手续3
办完业务,从柜台离开
如何评估银行的效率呢:

服务时间 = 手续1 + 手续2 + 手续3
响应时间 = 服务时间 + 等待时间
性能 = 单位时间内处理业务数量
那银行如何提高效率呢:

增加柜台数
降低服务时间
因此,排队系统或存储系统的优化方法是

增加并行度
降低服务时间
硬盘测试

硬盘原理

我们应该如何测试SATA/SAS硬盘呢?首先需要了解磁盘的构造,并了解磁盘的工作方式:

每个硬盘都有一个磁头(相当于银行的柜台),硬盘的工作方式是:

收到IO请求,得到地址和数据大小
移动磁头(寻址)
找到相应的磁道(寻址)
读取数据
传输数据
则磁盘的随机IO服务时间:

服务时间 = 寻道时间 + 旋转时间 + 传输时间

对于10000转速的SATA硬盘来说,一般寻道时间是7 ms,旋转时间是3 ms, 64KB的传输时间是 0.8 ms, 则SATA硬盘每秒可以进行随机IO操作是 1000/(7 + 3 + 0.8) = 93,所以我们估算SATA硬盘64KB随机写的IOPS是93。一般的硬盘厂商都会标明顺序读写的MBPS。

我们在列出IOPS时,需要说明IO大小,寻址空间,读写模式,顺序/随机,队列深度。我们一般常用的IO大小是4KB,这是因为文件系统常用的块大小是4KB。

使用dd测试硬盘

虽然硬盘的性能是可以估算出来的,但是怎么才能让应用获得这些性能呢?对于测试工具来说,就是如何得到IOPS和MBPS峰值。我们先用dd测试一下SATA硬盘的MBPS(吞吐量)。

#dd if=/dev/zero of=/dev/sdd bs=4k count=300000 oflag=direct
记录了300000+0 的读入 记录了300000+0 的写出 1228800000字节(1.2 GB)已复制,17.958 秒,68.4 MB/秒
#iostat -x sdd 5 10
...
Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s avgrq-sz avgqu-sz await svctm %util
sdd 0.00 0.00 0.00 16794.80 0.00 134358.40 8.00 0.79 0.05 0.05 78.82
...
为什么这块硬盘的MBPS只有68MB/s? 这是因为磁盘利用率是78%,没有到达95%以上,还有部分时间是空闲的。当dd在前一个IO响应之后,在准备发起下一个IO时,SATA硬盘是空闲的。那么如何才能提高利用率,让磁盘不空闲呢?只有一个办法,那就是增加硬盘的队列深度。相对于CPU来说,硬盘属于慢速设备,所有操作系统会有给每个硬盘分配一个专门的队列用于缓冲IO请求。

队列深度

什么是磁盘的队列深度?

在某个时刻,有N个inflight的IO请求,包括在队列中的IO请求、磁盘正在处理的IO请求。N就是队列深度。
加大硬盘队列深度就是让硬盘不断工作,减少硬盘的空闲时间。

加大队列深度 -> 提高利用率 -> 获得IOPS和MBPS峰值 -> 注意响应时间在可接受的范围内
增加队列深度的办法有很多

使用异步IO,同时发起多个IO请求,相当于队列中有多个IO请求
多线程发起同步IO请求,相当于队列中有多个IO请求
增大应用IO大小,到达底层之后,会变成多个IO请求,相当于队列中有多个IO请求 队列深度增加了。
队列深度增加了,IO在队列的等待时间也会增加,导致IO响应时间变大,这需要权衡。让我们通过增加IO大小来增加dd的队列深度,看有没有效果:

dd if=/dev/zero of=/dev/sdd bs=2M count=1000 oflag=direct
记录了1000+0 的读入 记录了1000+0 的写出 2097152000字节(2.1 GB)已复制,10.6663 秒,197 MB/秒
Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s avgrq-sz avgqu-sz await svctm %util
sdd 0.00 0.00 0.00 380.60 0.00 389734.40 1024.00 2.39 6.28 2.56 97.42
可以看到2MB的IO到达底层之后,会变成多个512KB的IO,平均队列长度为2.39,这个硬盘的利用率是97%,MBPS达到了197MB/s。(为什么会变成512KB的IO,你可以去使用Google去查一下内核参数 max_sectors_kb的意义和使用方法 )

也就是说增加队列深度,是可以测试出硬盘的峰值的。

使用fio测试硬盘

现在,我们来测试下SATA硬盘的4KB随机写的IOPS。因为我的环境是Linux,所以我使用FIO来测试。

$fio -ioengine=lio -bs=4k -direct=1 -thread -rw=randwrite -size=1000G -filename=/dev/vdb \
-name="EBS 4K randwrite test" -iodepth=64 -runtime=60
简单介绍fio的参数

ioengine: 负载引擎,我们一般使用lio,发起异步IO请求。
bs: IO大小
direct: 直写,绕过操作系统Cache。因为我们测试的是硬盘,而不是操作系统的Cache,所以设置为1。
rw: 读写模式,有顺序写write、顺序读read、随机写randwrite、随机读randread等。
size: 寻址空间,IO会落在 [0, size)这个区间的硬盘空间上。这是一个可以影响IOPS的参数。一般设置为硬盘的大小。
filename: 测试对象
iodepth: 队列深度,只有使用lio时才有意义。这是一个可以影响IOPS的参数。
runtime: 测试时长
下面我们做两次测试,分别 iodepth = 1和iodepth = 4的情况。下面是iodepth = 1的测试结果。

上图中蓝色方框里面的是测出的IOPS 230, 绿色方框里面是每个IO请求的平均响应时间,大约是4.3ms。黄色方框表示95%的IO请求的响应时间是小于等于 9.920 ms。橙色方框表示该硬盘的利用率已经达到了98.58%。

下面是 iodepth = 4 的测试:

我们发现这次测试的IOPS没有提高,反而IO平均响应时间变大了,是17ms。

为什么这里提高队列深度没有作用呢,原因当队列深度为1时,硬盘的利用率已经达到了98%,说明硬盘已经没有多少空闲时间可以压榨了。而且响应时间为 4ms。 对于SATA硬盘,当增加队列深度时,并不会增加IOPS,只会增加响应时间。这是因为硬盘只有一个磁头,并行度是1, 所以当IO请求队列变长时,每个IO请求的等待时间都会变长,导致响应时间也变长。

这是以前用IOMeter测试一块SATA硬盘的4K随机写性能,可以看到IOPS不会随着队列深度的增加而增加,反而是平均响应时间在倍增。

队列深度 IOPS 平均响应时间
1 332.931525 3.002217
2 333.985074 5.986528
4 332.594653 12.025060
8 336.568012 23.766359
16 329.785606 48.513477
32 332.054590 96.353934
64 331.041063 193.200815
128 331.309109 385.163111
256 327.442963 774.401781
寻址空间对IOPS的影响

我们继续测试SATA硬盘,前面我们提到寻址空间参数也会对IOPS产生影响,下面我们就测试当size=1GB时的情况。

我们发现,当设置size=1GB时,IOPS会显着提高到568,IO平均响应时间会降到7ms(队列深度为4)。这是因为当寻址空间为1GB时,磁头需要移动的距离变小了,每次IO请求的服务时间就降低了,这就是空间局部性原理。假如我们测试的RAID卡或者是磁盘阵列(SAN),它们可能会用Cache把这1GB的数据全部缓存,极大降低了IO请求的服务时间(内存的写操作比硬盘的写操作快很1000倍)。所以设置寻址空间为1GB的意义不大,因为我们是要测试硬盘的全盘性能,而不是Cache的性能。

硬盘优化

硬盘厂商提高硬盘性能的方法主要是降低服务时间(延迟):

提高转速(降低旋转时间和传输时间)
增加Cache(降低写延迟,但不会提高IOPS)
提高单磁道密度(变相提高传输时间)
RAID测试

RAID0/RAID5/RAID6的多块磁盘可以同时服务,其实就是提高并行度,这样极大提高了性能(相当于银行有多个柜台)。

以前测试过12块RAID0,100GB的寻址空间,4KB随机写,逐步提高队列深度,IOPS会提高,因为它有12块磁盘(12个磁头同时工作),并行度是12。

队列深度 IOPS 平均响应时间
1 1215.995842 0.820917
2 4657.061317 0.428420
4 5369.326970 0.744060
8 5377.387303 1.486629
16 5487.911660 2.914048
32 5470.972663 5.846616
64 5520.234015 11.585251
128 5542.739816 23.085843
256 5513.994611 46.401606
RAID卡厂商优化的方法也是降低服务时间:

使用大内存Cache
使用IO处理器,降低XOR操作的延迟。
使用更大带宽的硬盘接口


SAN测试

对于低端磁盘阵列,使用单机IOmeter就可以测试出它的IOPS和MBPS的峰值,但是对于高端磁盘阵列,就需要多机并行测试才能得到IOPS和MBPS的峰值(IOmeter支持多机并行测试)。下图是纪念照。

磁盘阵列厂商通过以下手段降低服务时间:

更快的存储网络,比如FC和IB,延时更低。
读写Cache。写数据到Cache之后就马上返回,不需要落盘。 而且磁盘阵列有更多的控制器和硬盘,大大提高了并行度。
现在的存储厂商会找SPC帮忙测试自己的磁盘阵列产品(或全闪存阵列), 并给SPC支付费用,这就是赤裸裸的标准垄断。国内也有做存储系统测试的,假如你要测试磁盘阵列,可以找NSTC (广告时间)。

SSD测试

SSD的延时很低,并行度很高(多个nand块同时工作),缺点是寿命和GC造成的响应时间不稳定。

推荐用IOMeter进行测试,使用大队列深度,并进行长时间测试,这样可以测试出SSD的真实性能。

下图是storagereview对一些SSD硬盘做的4KB随机写的长时间测试,可以看出有些SSD硬盘的最大响应时间很不稳定,会飙高到几百ms,这是不可接受的。

云硬盘测试

我们通过两方面来提高云硬盘的性能的:

降低延迟(使用SSD,使用万兆网络,优化代码,减少瓶颈)
提高并行度(数据分片,同时使用整个集群的所有SSD)
在Linux下测试云硬盘

在Linux下,你可以使用FIO来测试
操作系统:Ubuntu 14.04
CPU: 2
Memory: 2GB
云硬盘大小: 1TB(SLA: 6000 IOPS, 170MB/s吞吐率 )
安装fio:

#sudo apt-get install fio
再次介绍一下FIO的测试参数:

ioengine: 负载引擎,我们一般使用lio,发起异步IO请求。
bs: IO大小
direct: 直写,绕过操作系统Cache。因为我们测试的是硬盘,而不是操作系统的Cache,所以设置为1。
rw: 读写模式,有顺序写write、顺序读read、随机写randwrite、随机读randread等。
size: 寻址空间,IO会落在 [0, size)这个区间的硬盘空间上。这是一个可以影响IOPS的参数。一般设置为硬盘的大小。
filename: 测试对象
iodepth: 队列深度,只有使用lio时才有意义。这是一个可以影响IOPS的参数。
runtime: 测试时长
4K随机写测试

我们首先进行4K随机写测试,测试参数和测试结果如下所示:

#fio -ioengine=lio -bs=4k -direct=1 -thread -rw=randwrite -size=100G -filename=/dev/vdb \
-name="EBS 4KB randwrite test" -iodepth=32 -runtime=60

蓝色方框表示IOPS是5900,在正常的误差范围内。绿色方框表示IO请求的平均响应时间为5.42ms, 黄色方框表示95%的IO请求的响应时间是小于等于 6.24 ms的。

4K随机读测试

我们再来进行4K随机读测试,测试参数和测试结果如下所示:

#fio -ioengine=lio -bs=4k -direct=1 -thread -rw=randread -size=100G -filename=/dev/vdb \
-name="EBS 4KB randread test" -iodepth=8 -runtime=60

512KB顺序写测试

最后我们来测试512KB顺序写,看看云硬盘的最大MBPS(吞吐率)是多少,测试参数和测试结果如下所示:

#fio -ioengine=lio -bs=512k -direct=1 -thread -rw=write -size=100G -filename=/dev/vdb \
-name="EBS 512KB seqwrite test" -iodepth=64 -runtime=60

蓝色方框表示MBPS为174226KB/s,约为170MB/s。
使用dd测试吞吐率

其实使用dd命令也可以测试出170MB/s的吞吐率,不过需要设置一下内核参数,详细介绍在 128MB/s VS 170MB/s 章节中。
在Windows下测试云硬盘

在Windows下,我们一般使用IOMeter测试磁盘的性能,IOMeter不仅功能强大,而且很专业,是测试磁盘性能的首选工具。
IOMeter是图形化界面(浓浓的MFC框架的味道),非常方便操作,下面我将使用IOMeter测试我们UOS上1TB的云硬盘。
操作系统:Window Server 2012 R2 64
CPU: 4
Memory: 8GB
云硬盘大小: 1TB
当你把云硬盘挂载到Windows主机之后,你还需要在windows操作系统里面设置硬盘为联机状态。

4K随机写测试

打开IOMeter(你需要先下载),你会看到IOMeter的主界面。在右边,你回发现4个worker(数量和CPU个数相同),因为我们现在只需要1个worker,所以你需要把其他3个worker移除掉。现在让我们来测试硬盘的4K随机写,我们选择好硬盘(Red Hat VirtIO 0001),设置寻址空间(Maximum Disk Size)为50GB(每个硬盘扇区大小是512B,所以一共是 50*1024*1024*1024/512 = 104857600),设置队列深度(Outstanding I/Os)为64。

然后在测试集中选择”4KiB ALIGNED; 0% Read; 100% random(4KB对齐,100%随机写操作)” 测试

然后设置测试时间,我们设置测试时长为60秒,测试之前的预热时间为10秒(IOMeter会发起负载,但是不统计这段时间的结果)。

在最后测试之前,你可以设置查看实时结果,设置实时结果的更新频率是5秒钟。最后点击绿色旗子开始测试。

在测试过程中,我们可以看到实时的测试结果,当前的IOPS是6042,平均IO请求响应时间是10.56ms,这个测试还需要跑38秒,这个测试轮回只有这个测试。

我们可以看到IOMeter自动化程度很高,极大解放测试人员的劳动力,而且可以导出CSV格式的测试结果。
顺序读写测试

我们再按照上面的步骤,进行了顺序读/写测试。下面是测试结果:
IO大小 读写模式 队列深度 MBPS
顺序写吞吐测试 512KB 顺序写 64 164.07 MB/s
顺序读吞吐测试 256KB 顺序读 64 179.32 MB/s
云硬盘的响应时间

当前云硬盘写操作的主要延迟是

网络传输
多副本,写三份(数据强一致性)
三份数据都落盘(数据持久化)之后,才返回
IO处理逻辑
我们当前主要是优化IO处理逻辑,并没有去优化2和3,这是因为我们是把用户数据的安全性放在第一位。

128MB/s VS 170MB/s

回到最开始的问题 “为什么使用dd命令测试云硬盘只有128MB/s”, 这是因为目前云硬盘在处理超大IO请求时的延迟比SSD高(我们会不断进行优化),现在我们有两种方法来获得更高的MBPS:

设置max_sectors_kb为256 (系统默认为512),降低延迟
使用fio来测试,加大队列深度
通过设置max_sectors_kb这个参数,使用dd也可以测出170MB/s的吞吐量

root@ustack:~# cat /sys/block/vdb/queue/max_sectors_kb
512
root@ustack:~# echo "256" > /sys/block/vdb/queue/max_sectors_kb
root@ustack:~#
root@ustack:~# dd if=/dev/zero of=/dev/vdb bs=32M count=40 oflag=direct
40+0 records in
40+0 records out
1342177280 bytes (1.3 GB) copied, 7.51685 s, 179 MB/s
root@ustack:~#
同时查看IO请求的延迟:

root@ustack:~# iostat -x vdb 5 100
...
Device: rrqm/s wrqm/s r/s w/s rkB/s wkB/s avgrq-sz avgqu-sz await r_await w_await svctm %util
vdb 0.00 0.00 0.00 688.00 0.00 176128.00 512.00 54.59 93.47 0.00 93.47 1.40 96.56
下面是使用fio工具的测试结果,也可以得到170MB/s的吞吐率。

不可测试的指标

IOPS和MBPS是用户可以使用工具测试的指标,云硬盘还有一些用户不可测量的指标

数据一致性
数据持久性
数据可用性
这些指标我们只能通过根据系统架构和约束条件计算得到,然后转告给用户。这些指标衡量着公有云厂商的良心,有机会会专门进行介绍。

总结

上面介绍了一下测试工具和一些观点,希望对你有所帮助。

测试需要定性和定量
了解存储模型可以帮助你更好的进行测试
增加队列深度可以有效测试出IOPS和MBPS的峰值

❷ 联想个人云存储 T1 打造属于家庭的数据中心

张阳

【环球网 科技 测评 张益达】在家办公期间闲来无事,看着各种各样的手机、U盘、硬盘等电子产品,里面存储了大量的数据,益达决定整理一下这些数据资产,如果只是一股脑的扔进一块硬盘当中,虽然或许省事,但是既不利于分类管理,更不利于日后的存取使用,更何况其中有不少益达辛苦下载的高清影视资源,如果不好好利用一下家中的大屏岂不太浪费了些,于是搭建一个个人云存储成为了最佳解决方案,也就是NAS即网络附加存储(Network Attached Storage),通过网络提供数据访问服务。

起初益达想过使用老旧的电脑来改造一个个人NAS,但是研究了一番之后,首先用旧电脑组装的NAS首先没有那么大的存储空间,其次稳定性差,能源能耗也比较高,需要研究替代的整体方案比较复杂,想了想,还是果断放弃了这一想法。

那就只能去看看成品NAS了,对比了一下群晖、威联通等等知名品牌,好虽然是好,不过这动辄2-3千的价格,让益达还是有些望而却步,最终益达选中了联想联想个人云存储4TB版,理由很简单,性价比极高。

首先配置上联想个人云存储,芯片采用ARM Cortex A53内核,四核心,主频1.4GHz。图形处理器是Mali T820 MP3,支持10bit HDR 4KP60 H265以及VP9 4KP60视频解码,同时支持HD 1080P编码。2GB运存,4T版附带一个4T容量的2.5英寸硬盘。

要知道现在仅仅是一个2.5英寸4T容量硬盘售价都在900元以上,而且NAS产品与说白了与电脑还是有着千丝万缕的联系,联想的产品想来质量、做工、软件都完全可以信赖,所以说,这款产品的性价比是非常高的。

产品拿到后,益达发现因为使用了2.5英寸硬盘的关系,联想个人云存储的体积十分小巧,白色廊柱型机身设计,灵感来自于古希腊帕特农神庙的多立克柱式的外观,金色底座,底座部分分布着大片的散热口,整体看和一台路由器大小差不了许多。机身背面有“reset复位”孔,2个USB3.0接口,1个网口,1个电源接口,可以说整体的感觉还真是很象个路由器。

轻轻按压打开上顶盖,能看到左右两个硬盘架,向上一提就可以将架子提出,操作非常简便,下一步需要手动将硬盘安装进去,插入硬盘,使用随机附带的小螺丝刀将螺丝拧紧,防止硬盘的晃动发生数据损坏。安装完毕,通电即可开机,按照说明书的指示,橙色灯交替闪烁,设备进入待绑定状态。

接下来,根据说明书指示,在手机端下载数据守护者客户端,注册账号,登录客户端,使用客户端的扫码功能扫描顶盖上附着的二维码对设备进行绑定,绑定成功之后会要求选择磁盘组模式,一种是RAID1模式,可以双盘互为备份,一旦一个盘出现了问题,另一个盘还能确保资料无虞。另外一种是Large模式,两个盘变为一个大硬盘,好处是硬盘容量得到最大化使用,但是同时失去了安全备份的能力。目前益达只有一块硬盘所以选择哪个并不影响,但是益达还是比较倾向于RAID1模式的,毕竟4TB的容量其实对一般家庭使用来说足够用的了,还是数据更珍贵,选择一种模式之后,会对硬盘进行格式化,之后设备会自动进行重启,绑定完成就可以正常进行使用了。

点击客户端中的+号图标就可以上传你的数据资料了,上传的所有内容都会存储在我的空间里,会自动按照图片或者视频等等文件类型进行分类,无需自己手动建立各种类型的文件夹,上传的速度大概在10Mb/s左右,益达传输了10GB左右的文件,10分钟左右就传完了速度很快,如果量比较大的化大概要用一天时间传完几百GB的文件,不过这个设备本身就像是路由器一样需要长期开着的,所以其实不知不觉也就传完了。

Windows平台下的客户端,界面和使用方式与大部分网盘客户端几乎无异,除了可以管理本机文件也可以管理外部存储,同时还支持网络云盘文件下载到设备以及从设备上传到网络云的功能。

另外一个很重要的操作就是要在电视中安装客户端,手机客户端扫码登陆,这样家里的大屏就可以畅享联想个人云存储上的影音文件了,等于多了一个家庭媒体中心。

另外一个最有用的功能,莫过于手机备份,可以在其中设置将手机相册进行自动备份,相信很多iPhone的用户都遇到过云存储空间不足的问题,而且很多人都没有购买苹果的iCloud空间,这时候就可以自动备份到你的私人云盘中。

相对于目前市场上的网盘,联想个人云存储的优势在于无需会员才能提升下载速度,你的网盘你做主,还可以将文件分享给朋友、同事,文件大小没有限制,对于当前更多是远程办公的方式极其便捷。

如果是企业使用,联想个人云存储传输的时候采用SDVN技术加密,通过SDVN网络虚拟化技术,在互联网真实网络之上建立安全的叠加网,实现IP层的网络虚拟化,能够分离网络控制层和数据通讯层。所有应用数据均在虚拟化层上传输,保障数据在互联网上的传输安全可靠。避免出现因为文件分享导致的文件被窃取的情况发生。

耗电量因为手头没有测试设备暂时没有进行测试,不过益达看了看网友的测试数据,大体上一年所产生的电费大概30元左右。

总结而言,对大部分家用用户而言,联想个人云存储T1从软、硬件上都很好的满足了家庭用户的使用需要:稳定性强,24x7稳定无故障运行,联想的电脑的品质无需多言;外观精美,体积小巧,便于放置;操作简单,多端通用,几乎无需学习操作方法;能耗低,以极低的成本组建起一个家庭私有云还是相当有成就感的,而且使用上极为简便。虽然可玩性可能较之一些品牌的NAS产品弱了些,但是家庭使用,稳定、便捷、好用其实就是最大的需求。

责编:张阳

版权作品,未经环球网 huanqiu.com 书面授权,严禁转载,违者将被追究法律责任。

❸ 联想个人云存储A1评测:容量大不限速,这才是最具性价比的高速“网盘”

如今每个人可能都拥有一个网络云盘,云存储概念的兴起方便了我们在不同的设备端共享文件,提升了各行各业的工作效率,但是伴随方便的同时数据安全却令人担忧。时至今日,网络云盘已经成为家庭或个人不可或缺的工具,为了更好的保护消费者的数据,私有云存储产品孕育而生。

个人云存储A1是联想刚刚发布的产品,虽然称之为“云”,实际上数据是保存在本地,而文件分享也会通过私有通道在不同平台传播,相比网络云存储来说当然更让人放心;其次,目前大多数网络云盘为了盈利都需要花钱开通会员才能满速进行文件下载/上传,而联想个人云存储A1的传输速度只受你的网络环境影响。

外观设计:经典的多立克柱典雅大气

联想个人云存储A1与上一代产品基本保持了相同的设计,A1整体上是椭圆形的柱体,采用立式放置节约了家庭空间。A1的外壳采用了多立克柱设计,垂直的棱条不仅加强了A1外壳的硬度,同时也让A1显得更加精致。

体验总结

总体上来说联想个人云存储A1使用起来非常简单,就算是NAS领域的小白用户也能轻松上手,而且A1的应用与功能也能完全满足普通用户的需求。如果你是一位喜欢拍照、拍视频的用户,联想个人云存储A1就可以作为你的手机扩展空间,保存你的照片与视频;如果你是一位电影爱好者,A1也可以成为你的私人影库,只要网络环境允许本地播放顺畅无卡顿。

对于现在的网络云盘来说,本地的个人云盘具有太多优势,不用再花钱购买会员换来下载速度,也不用担心数据放在网络云盘上不安全。而在个人云盘中,联想个人云存储A1就是一款非常不错的产品,如果你受够了网盘那些限速、会员收费机制,那么就换一个联想个人云存储A1吧!

❹ 家庭魔术存储—Magic M2 私有云盘 开箱与评测

NAS 是 Network-Attached Storage 的缩写,简单的说其实和移动硬盘类似给电脑提供了额外的存储空间。而移动硬盘通常连在一台计算机的 USB 接口上,想用在别处需要先在系统里卸载它,从接口上拔下来,再插到另外的计算机上。这种方式在时间和空间上都有限制,同一时间只能接在一台计算机上,空间上也需要和使用它的计算机放得足够近,而且同时存在硬盘损坏的风险。而 NAS 和移动硬盘不一样,通过网络和各种计算设备相连接。这样多个设备就能够同时分享,另一方面也摆脱了空间上的局限——只要网络能连上的地方你都能用,并且NAS 产品多数都可以接上不止一块硬盘,家用产品中双盘位和四盘位比较常见,通常配合RAID的方式进行存储。

文件存取是 NAS 最基础的功能,在此之上又派生出很多应用。常见的比如说数据备份,计算机和手机可以设置成定期自动在 NAS 上保存备份,不必再担心哪一天硬盘挂了或者手机丢了就再也找不回重要的文件和照片。云端同步,可以在家里和办公室用不同的计算机,甚至是在路上的时候打开手机随时编辑同一份文档,再也不必借助邮件或者U盘在多个设备之间来回拷贝。再比如说影音 娱乐 ,不在家的时候掏出手机让 NAS 从 BT 或者迅雷下载高清电影,回到家打开电视就能直接播放。

虽然NAS优势很多,也不是没有代价。首先,为了联网和应对多个设备的访问,NAS 需要有一定的计算能力——它自己就是一台计算机或者说服务器,有自己的 CPU 和内存。移动硬盘相对就简单多了,硬盘盒里面主要是把数据流在不同的硬件接口之间进行传递。不算上硬盘的成本,现在一个普通家用 NAS 的价格少说也是普通移动硬盘盒的十倍以上。其次,现在多数的移动硬盘用一根 USB 3.0 的数据线接在计算机上就可以快速地读写文件,而 NAS 如果想达到与之相当的传输速度,要依靠高速网络,这样就需要千兆交换机、千兆网线、5GHz 高速无线路由器等等。部署这样一套基础设施多少需要了解一点网络知识,当然也免不了花费些银两。

当一开始看到这个产品的时候还是有些期待的。因为,对于新华三的初步了解,它以路由器、交换机为主,最近几年也开始涉及了服务器、云存储、云计算的方面,并且定位目标主要以政府、医疗、教育、交通、军事部门等为主,家庭及个人消费者的产品,和其他友商(华为、海康、大华等)相对来说少了一点。

随着各家云盘厂商的服务关闭,私有云盘、NAS显得有些迫切。总不想着某一天自己的资料无法存放而头痛。这次推出的 H3C Magic M2打上了家庭云盘,不知道其真正的功能和体验如何,是否称得上云盘或者家用NAS。

一、外包装

拆开快递拿出来的时候,感觉还是挺不错的。现在的 科技 圈开始流行,没有设计便是最好的设计 ,所以它整体的外观比较方正,用了比较环保的纸盒,摸上去也挺有质感。正面就简简单单的一张照片和“无线私有云盘”几个字解决了所有的设计。背面依照惯例,简单介绍介绍产品型号和主要技术特点。

来个整体的开箱照片,依次为电源适配器、说明书、主机、网线和HDMI线。

二、机身

Magic M2本身接口包括了:USB 3.0*1;Magic口*1;功能按键*1;复位按键*1。

魔术家M2的机身侧方是插口和按键,从左到右依次是“USB 3.0接口”、“Magic接口”、“复位键”、“功能键”。USB接口可外接优盘、硬盘等存储设备。复位键长按5秒或以上,直到系统指示灯快速闪烁,设置恢复至出厂设置(硬盘中的文件不会丢失)。功能键短按1次,导入数据;短按2次,弹出USB设备;长按5秒或以上,设备进入/退出睡眠模式。

三、电源适配器

M2延续了之前Magic极简设计,采用网口机身分离式设计,利用高清晰度多媒体接口(HDMI)替代传统的RJ45接口,用一根简化版HDMI线缆实现了网线与电线的双重功能,将原本需要插在机身的网线全部通过HDMI线缆转移到了电源适配器上,同时将原本标示的“WAN”或“LAN”改为了更加容易懂的“互联网”和“电脑”,非常人性化。

四、关于硬盘的拆装

安装硬盘只需四步:1.沿绿色边线向外打开外壳 2.抽出可拆卸式硬盘盒3.放入硬盘(正面向上,接口向硬盘盒外侧)4.装回外壳。硬盘需自行购买,推荐支持2.5英寸SATA接口硬盘(7mm和9.5mm厚度硬盘)。在说明书中很形象的通过图片的形式进行可拆分讲解,为了更加明显的体现,加一个GIF动态图来说明一下把。

M2支持PC端web管理以及移动端APP管控两种方式,两种方式既可以本地局域网控制,也能实现远程管理。M2的APP基于CAPWAP协议的集中控制系统,可以实现无线网络设备的集中管理和自动配置功能,使用户能在最短的时间内掌握无线网络的操控方法。对于爱折腾的旁友,因为过于简单,也失去了一些可操作性。

1、PC端

在接通电源并连接至路由器下时,在网页上输入192.168.124.1(默认管理IP)即可打开管理页面。管理页面在也面的最下方,又分为了简洁版和专业版,方便不同的人群对其的设置。

通过进一步的在专业版本的设置界面发现,M2也举具备了普通路由器的功能,2.4G/5GWIFI的设置,用户管理与升级,整体性能监控,基本的上网控制等。

1.1存储功能

在我的计算机地址栏中输入192.168.124.1,会跳出登陆界面,默认的账号为magic,密码为WIFI密码。成功登陆后,便可以对内置硬盘进行访问。(在刚对它设置时,会提示需要格式化硬盘,只有在格式化成功后才可以正常访问)。在格式化完成后,在硬盘中会自动创建:其他,视频,图片,文档,下载,音乐这几个文件夹

我配置了一块INTEL的SSD硬盘,我在视频文件夹中尝试放一部260M左右的视频,实际测试中,上传速度大约在11MB/S左右,也不能说特别把。

可惜的是,简单的设置之后硬盘访问与管理,只支持局域网内进行,也就是说异地电脑无法对其进行访问和管理。感觉和云盘有些出入了。。。当然,如果动手能力强的话,通过端口映射或者DDNS等其他方法应该也可以达到云盘的效果,但上传速度应该会有点感人。。。

2、APP

它的首页还是偏向于简单把,整体色调偏冷。

注册好之后连接之前设置好的无线,它会提示输入管理密码,管理密码和WIFI密码一致。

2.1设置界面

设置界面其实更多的和PC端相类似,无非转移到了APP上。只不过也比PC多了一些应用,比如硬盘备份、手机备份和离线下载。

Wi-Fi管理也很简便,可以单独设置2.4G和5G Wi-Fi,也可以开启双频二合一功能,开启后2.4G和5G将使用相同的配置,终端将自动适配更强的设备,近距离时自动连接到更高速的5G WiFi,远距离时可以连接穿墙质量更好的2.4G WiFi。高级设置里也可根据个人需求对Wi-Fi一键开启或断开。

因为Magic M2有一个USB3.0的接口,也增加了可以外接移动硬盘的可能,所以在APP中也增加了硬盘备份的功能。

用户控制界面,可以查看当前连接云盘的有哪些设备的存在。

2.2离线设置下载

Magic M2支持离线下载功能,支持磁链接,HTTTP等和种子文件。但是在实际测试过程中,会出现一些链接能够下载,一些链接无法下载的情况。当然,这也不是它一家的问题,在国内迅雷基本独占下载软件的市场,再加最近迅雷关闭了第三方的离线下载通道,迫使多家厂商的离线下载功能失效,寻求其他厂商的合作。

为了测试,我随机找了一部电影进行测试。1.8G的电影大小,算上获取种子时间和下载时间差不多半天左右的时间。如果平时找到好看的电影,进行远程离线下载,回家也就可以进行观看了。前提是,你的保证链接的可下载性。

在存储界面可以在不同的路径下进行查看文件,需要注意的是,图片可以在不同的网络环境下(局域网、异地WIFI、4G)进行查看。但是视频文件在实际测试过程中发现,只能在局域网下观看,4G和异地无线无法进行在线观看,只能进行下载后查看。不知道后续是否能够升级解决。

2.3备份功能

手机用户只需点击主页面按钮,选择手机相册,选择需要上传的图片和视频(可以勾选删除源文件),点击确定,编辑分类标签即可上传。照片视频智能分类,支持标签、时间、地点多种分类方式。

官方宣称H3C Magic M2是针对个人数据市场特别定制的家庭私有云盘,产品将网络存储、文件管理、安全备份、社交分享、离线下载、无线路由等功能融为一体。采用最新的802.11ac技术,企业级防火墙,无线传输速率高达1167Mbps,内置1TB监控级硬盘(选配),是一款集网络存储、文件管理、安全备份、社交分享、离线下载、无线路由、智能管理等功能为一体的家庭私有云盘。

从我个人的角度去体验和感受,取名为家庭私有云盘,有点对不起这个“云”字。从整体的框架、构造和功能上去解析:

1、硬件

因为Magic M2从整体的设计思路上来说,其实就是一个路由器,所谓的云盘与备份,只是相当于在路由器上在硬件上直接增加了SATA的接口。其实和外界的带有USB接口的路由去性质差不多,例如小米、华硕、360等。

使用网线和电源线合一的HDMI线的方式确实比较创新和方便,同时在电源适配器上以中文的形式注明,使消费者的入门难度降低,更加清楚明白WAN/LAN的区别。(一开始我以为那个HDMI的接口是输出接口,可以将硬盘中的视频输出到电视等设备,当然后续升级可以考虑一下)

2、软件

M2的软件其实更偏向于传统路由器的系统,和真正的云盘或者家用NAS的Linux系统没法比较。M2只能定时更新固件,和nas的LINUX相比可操作性不高,但也因为如此,还是比较适合那些不太喜欢折腾的人们,安安单单的最好。

总结

1、家里正好想换路由器的朋友们,这个产品还是挺好的,毕竟还带着存储功能。老人孩子的照片刚刚好可以存放。后续APP会升级,会增加隐私存放,用户相对独立,互不影响,居家旅行必备利器。

2、喜欢折腾或者最近考虑自己搭建家用NAS或者云盘的,这个产品就不太适合你们了,不要被云盘两个字迷惑到了,他们并没有云服务,纯硬件而已。它就是一个路由器带了个硬盘槽位而已。

谢谢!多谢各位!

❺ 云存储的测试方案怎么写

1.上传文件存储到云端
2.从云端下载该文件
3.打开该文件
测试包括电脑系统、云存储客户端、浏览器版本,上传文件的类型,文件大小,分角色操作
你可以参考下够快云存储,以他们为例测试
希望能帮到你

热点内容
安卓手机怎么下符文之地 发布:2024-11-30 14:49:28 浏览:878
安卓ota在哪里打开 发布:2024-11-30 14:46:55 浏览:102
mapreduce算法 发布:2024-11-30 14:46:50 浏览:16
python的shell 发布:2024-11-30 14:46:49 浏览:730
变频器什么时候配置电抗器 发布:2024-11-30 14:46:37 浏览:700
官方版我的世界登录网易服务器 发布:2024-11-30 14:38:37 浏览:113
安卓手机没电会出现什么问题 发布:2024-11-30 14:37:31 浏览:984
unity3d加密dll 发布:2024-11-30 14:36:40 浏览:26
苹果手机在哪里可以置换安卓 发布:2024-11-30 14:36:34 浏览:469
php函数参数的传递参数 发布:2024-11-30 14:32:00 浏览:505