存储池ssd加速
❶ AMD有无类似intel 快速响应(即rst把ssd当做机械硬盘的缓存盘)的技术,没有该怎么代替
AMD StoreMI 技术
你提问的时候应该还没推出,大概今年四五月才推出的新技术,简单的说,就是把 固态+机械+内存,混合成一个分区,然后智能学习来加速。用最新锐龙处理器+4系列的主板。
采用 AMD X399 或400 系列芯片组的主板均支持 AMD StoreMI 技术
SSD 速度飞快、体积小巧,但价格昂贵;机械硬盘容量大、价格低,但速度比 SSD 慢得多。AMD StoreMI 技术将这两种存储器“融合”为一块驱动器,并将经常访问的数据自动移至 SSD。轻松尽享 SSD 的疾速响应和机械硬盘的超大容量和超高性价比。
AMD StoreMI 是一款面向电脑发烧友的强大工具,能够减少加载/启动时间、改善文件管理、加快系统响应速度。
如果你在硬盘中安装了 Windows® 系统,但不想重新安装来获得 SSD 般的性能,StoreMI 可让你得偿所愿。
如果你有一个跨多个硬盘的大型文件库,并希望将其转至一个盘符下,AMD StoreMI 可助你一臂之力。
或者,如果你希望硬盘中安装的游戏以SSD 般的速度加载,StoreMI 可为你轻松实现。
当你向电脑添加更多、更快的硬盘时,AMD StoreMI 技术会自动为常用文件匹配较快的存储器,从而带来超高性能。还可以将多达 2GB 的内存用作末级高速缓存,实现超快的数据处理。
如果您的主板采用 AMD X399 或400 系列芯片组,可以下载免费的 AMD StoreMI 软件。
如果你的 AM4 主板采用的是 300 系列芯片组,您仍然可以通过 AMD 专用的 Enmotus FuzeDrive 软件(需额外付费)实现存储加速。
更短的等待时间1
高容量机械硬盘非常适合存储大型文件库,但速度比 SSD慢得多。AMD StoreMI 技术可以让这些文件以 SSD般的速度运行。只需为系统添加一个 SSD,剩下的都交给 StoreMI 即可轻松搞定。
加速你的操作系统
你是否在为电脑启动速度或响应缓慢而感到苦恼?AMD StoreMI 技术可为你排忧解难。只需添加一个 SSD,StoreMI 便可自动让电脑疾速、流畅运行。
超高性价比,无需专有硬件
不需要购买昂贵和专有硬件来加速存储性能。AMD StoreMI 利用 SSD和 NVMe 等广泛使用和经济有效的技术,轻松加快现有存储器的速度。
即插即用,设置轻松
无需重新安装 Windows® 系统,即可轻松尽享 AMD StoreMI 技术带来的众多好处。只需为系统添加更快的存储设备,StoreMI 便会将常用数据自动转至较快的驱动器,带来超高性能。
轻松管理大型文件库
电脑发烧友通常会为文件库配备很多大容量硬盘,但跨硬盘管理文件库非常麻烦。AMD StoreMI 技术可将这些硬盘融合为一个大型存储池,大幅简化了文件库的管理。
如果你的 AM4 主板采用的是 300 系列芯片组,您仍然可以通过 AMD 专用的 Enmotus FuzeDrive 软件(需额外付费)实现存储加速。
❷ 如何使用SSD解决桌面虚拟化的启动风暴
不过支撑VDI的存储环境需要仔细的规划,以避免VDI启动风暴的问题,即当大量的用户同时登录系统时所造成的系统反应非常缓慢。有许多方法可以解决这个问题,但最有效的方法是将数据巧妙的放置在固态硬盘(SSD)上。VDI启动风暴的问题表现形式非常简单。虚拟桌面工作负载是可预测的;它基于桌面用户的工作时间,通常是每个工作日的上午9点到下午5点。相对于服务器的工作负载而言,普通的一台虚拟桌面所产生的所有存储I/O是相当低的,因此通常在一台物理主机上可以部署的虚拟桌面的密度比虚拟服务器要大得多。相反,虚拟桌面的初始启动则相当消耗资源,此时操作系统和应用需要从磁盘读取大量的数据以加载和执行。启动风暴发生在大量的虚拟桌面在短时间内同时启动之时(例如,在上午8点到9点之间),由此引起的大量存储I/O可以很轻易的将存储系统淹没。如果存储系统不能很好的设计以处理如此密集的I/O负载,最终存储系统将无法提供服务。当这种情况发生时,桌面用户将会感觉到虚拟桌面极度缓慢,以至于几乎无法使用。如果这种情况每天发生,那么你可以确定你的用户将会不停的抱怨,你的VDI项目将趋于失败,你的用户也会强烈要求重新使用他们的物理桌面。你必须竭尽全力避免这种情况发生,也即由于缺乏良好的设计而导致一项具有许多优点的技术解决方案,最终的实现效果却非常之差。在VDI实施之后来改善缺乏良好设计的存储系统是可能的,但相对于在之前做出正确的规划,代价要高昂得多,例如也许你的系统由于无法升级以满足需求,导致系统需要整个被替换掉。一旦用户启动系统,登录和加载应用之后,存储I/O通常将保持在一个比较低的水平。虚拟桌面在启动时和启动之后所产生的IOPS有着天壤之别,导致VDI环境下的存储架构设计极具挑战性。通常,运行Windows 7的虚拟桌面在启动时会产生50到100个IOPS,一旦运行平稳,平均IOPS下降到5-10.因此,为了满足由启动风暴引起的I/O需求,你的存储系统通常需要设计成能满足这种最坏的情况。仅仅为满足启动风暴时的IOPS需求而设计的存储架构将相当昂贵。通常,为增加存储系统的IOPS处理能力,你需要增加更多的的物理磁盘,从而使负载可以分布在更多的磁盘之上。这意味着你将拥有大量超出你需求磁盘容量。设想,设计一条具有8车道的高速公路,仅仅只是为了处理每天1到2个小时的高峰期拥堵,而在余下的时间里,仅仅两条车道就足以应付。最终的结果,你将不得不维护一条极其昂贵的高速公路。使用SSD解决VDI启动风暴问题为了平安度过启动风暴,相对于装备整个的存储阵列来处理所需的IOPS,存在更好的解决方案。你可以通过增加两条大容量快速车道来处理高峰期的车流,而不是建造一条8车道的高速公路。SSD相对于传统的机械磁盘要快得多,传统机械磁盘通常受限于磁盘转速。一般而言,每分钟15000转的SAS磁盘最多可以处理的IOPS为180,而SSD可以处理大约5000个IOPS.当然,这种性能的提升也伴随着极高的成本。如果用于虚拟桌面的存储系统全部采用SSD磁盘,固然很好,但对于绝大多数用户而言,高昂的成本将使他们望而却步。不过使用少量的SSD磁盘来承载启动风暴时所产生的大量I/O是非常经济的。如此设计,你可以使用大量价格相对较低的SAS和 SATA磁盘来满足磁盘容量的需求,同时少量的SSD磁盘来满足处理高峰期I/O负载的性能需求。选项A: 将某些文件放在SSD上。这种解决方案有多种实现方式。第一种是将虚拟机的母版映像文件和副本放置SSD存储池中。当在VDI中使用Linked Clones(在VMware View中)或Machine Creation Services(在XenDesktop中)时,母版映像文件作为只读磁盘为所有桌面虚拟机所共享。它是所有部署的桌面操作系统的母盘,然后每个虚拟机将单独保留一份可写的快照以存放所有对于母盘的修改。当桌面虚拟机经历启动过程时,大部分的磁盘活动来自于母版映像,也就是大部分的操作系统文件和应用文件存放的地方。因此,将母版映像和副本存放在SSD存储上可以消除启动风暴。其它所有单独的虚拟机快照磁盘可以存放在较低层级(SAS或SATA)的存储上。选项B:使用SSD作为缓存层。另外一种解决启动风暴的方法是将快速的SSD磁盘作为缓存层放置在由SAS和SATA组成的较慢存储池的前端。飞康的NSS SAN Accelerator即是针对VMware View的这样一种解决方案,NSS SAN Accelerator包含由SSD磁盘组成的硬件装置,放置在主机和存储设备之间。此硬件装置作为缓存层,所有的存储I/O都将通过它到达后端的存储设备。缓存硬件装置可以识别频繁访问的磁盘数据块,并自动将其缓存,这样这些数据块将可以从快速的SSD磁盘读取,而非从较慢的后端存储。通过缓存一些共同的数据如虚拟机母版映像,它可以按需动态调整以满足任何高I/O需求,从而消除启动风暴。显然,实现这些解决方案的最佳时机是在你的VDI项目的设计阶段。如今,很多的存储设备都具备存储分层的功能,支持将不同性能特征的磁盘放置在同一存储池里。它们也可以用来解决由启动风暴引起的存储 I/O瓶颈问题。通过加入由少量SSD磁盘组成的存储池,你可以将虚拟机母版映像从较慢的存储层转移到SSD存储层,以处理由启动风暴引起的大量I/O.在现有的主机和存储设备之间加入飞康的硬件装置是一种简便易行的手段,对已有的基础架构的影响和改动也非常之小。SSD容量规划当SSD作为存储层实现以应对启动风暴所引起的峰值I/O时,正确的容量规划就显得相当重要。为确定购买多少SSD磁盘,你必须计算出你的虚拟桌面系统所产生的最大I/O值。尽管你可以使用基于典型环境下的估算值,建议您最好使用性能分析工具测算出现有物理桌面系统的实际I/O,如使用Lakeside软件公司的SysTrack VDI评测工具,因为每一个用户的环境都不尽相同。将主机上承载的虚拟桌面数量-例如500,乘以桌面系统在启动时产生的典型IOPS-例如60,就可以确定出所有桌面同时登录时所产生的总体IOPS(500 x 60 = 30,000)。由于所有桌面不可能完全在同一时刻登录,你可以将计算出的值稍微向下调整。不过估算多一些余量总是更好一些。一旦确定了你的IOPS需求,你需要据此来规划你的SSD存储层。如果单块的SSD可以处理5000个IOPS,6块SSD则可以处理30000个IOPS.(注意这只是大致的估算。为了实现适合你特定环境的最佳方案,你必须对你的需求进行正确的评估,并和存储厂商一起实现满足你需求的SSD解决方案)预防和解决启动风暴问题并不意味着非常昂贵或复杂,SSD提供了一种很好的解决方案以解决虚拟桌面环境下的几个重大问题之一。VDI项目实现起来可能会非常昂贵,在许多公司,由于VDI项目的投资回报并非像服务器虚拟化那么明显,为VDI项目获得资金资助也相对困难。将SSD和廉价存储混合可以让你在降低项目费用的同时,仍然可以提供足够的性能以消除启动风暴。
❸ primocache用过吗真有提速的赶脚
非常NB的,建议使用!
下面说说我使用至今的体会:
第一,用内存给SSD加速,不开回写也可以极大提高SSD的突发传输率。如果开了回写,则不仅可以提高SSD的写入性能,而且还可以延长SSD的寿命!
第二,用内存和SSD可以给HDD加速。本人经过实践和各种比较平衡,觉得和Primocache最配的就是INTEL的傲腾。这个傲腾,4K性能远超NAND,而且傲腾天生不带DRAM缓存,所以无惧掉电风险!这个用来给HDD当作回写缓存,那是天造地设一般!我现在还用900P或者905P这样的高速傲腾,给一般的SATA SSD和NVME SSD加速。由于傲腾的寿命超长,利用傲腾给NAND SSD进行回写缓存,不仅可以提高SSD的读写速度,而且可以节省SSD的寿命。一块280G的900P,按照1GB Cache/TB的标准,应该可以对280TB的空间进行读写缓冲吧,而且没有掉电易失的问题。我以前都用MLC NAND做缓存,现在全部改成傲腾了!
第三,大大简化了NAS的配置。我是用Windows Server配置文件服务器,单独用2块900P组建了一个CachePool。然后由若干个HDD组成一个纯存储池,不搞什么分层存储和SSD缓存。根据需要,从CachePool中划分不同容量和类型的虚拟盘给纯存储池中的虚拟盘进行加速。
❹ 解析如何超越RAID非结构化数据存储
而RAID仍然是许多企业最喜爱的存储架构,对象存储初创公司Amplidata寻求以非传统方式替代PB级规模非结构化数据的泛滥。
“RAID磁盘存储仍然占企业IT部署的主导地位,但由于日益增长的磁盘密度,RAID不再能满足现代存储基础设施的可靠性要求,Amplidata的联盟和市场营销总监Tom
Leyden说:“为了解决RAID的这些缺点,用户已经转向管理文件的多个副本--但(他们)往往在存储利用率和功耗方面支付一个过高的价格。”
Amplidata由一群欧洲高科技创业者成立于2008年,总部设在比利时Lochristi,Ghent附近,在美国加利福尼亚州红木城设有办事处。
Amplidata的旗舰产品是AmpliStor设备,该公司描述了面向PB级别的大文件基础设施来优化的对象存储系统。莱顿解释Amplidata定位自己为一个大型方案的应用,如需要即时检索媒体档案的广播电视用户,或者也有类似的可用性期望的,支持社交游戏网络的云存储系统。这些应用适合广泛类别的非结构化媒体对象,如音频、视频和图像文件,Amplidata的目标旨在以非常规方法替代传统RAID部署。
Amplidata称其AmpliStor产品可扩展到数百PB级的存储,并且比传统的解决方案节约50%到70%的容量、更小的空间占用,转换为节约成本和功耗。
AmpliStor背后的技术是由高密度,低功耗的存储节点对搭配高性能的控制器节点,通过一个10GbE网络接口运行行业标准的HTTP/REST协议。
“这使得系统扩展吞吐量,以满足任何应用要求,”莱顿解释说。“后端存储池散布到许多存储节点满足应用程序的容量要求,理论上系统支持无限数量的存储节点”。
Amplidata通过调用其BitSpread技术,AmpliStor设备采用另一种方式将数据写入到磁盘,莱顿介绍道,“在多TB驱动器上具备比RAID更好的可靠性。”BitSpread技术分割和编码数据对象成为sub-blocks(子块),然后散布在系统内最大数目的磁盘上。要恢复原始数据对象,BitSpread系统只需要这些子块的一部分,提供了在多个磁盘或存储节点出现故障时高级别的可靠性。
Amplidata的管理者认为图像、视频和其他富媒体形式的非结构化数据将成为驱动力,推动在未来十年大数据的增长,而对象存储非常适合扩展到维护和访问这些信息量。那么,我们面临的挑战是说服潜在客户,长期以来传统的基于主机文件系统的企业存储架构将被大数据打垮。
“对象存储是一个很新的范例,”莱顿说。“几十年来组织机构已经针对基于文件的存储来解决提高RAID的限制,他们才刚刚开始得知有一个更好的办法。”
Amplidata直接销售给客户,并正在扩大其渠道合作伙伴网络,并培养与OEM的联盟。
在今年第一季度,该公司计划把高密度的存储模块、更快的控制器和基于SSD的数据加速器推向市场,这将提高读取性能。
❺ 存储性能和空间利用率哪个重要
最大限度地挖掘存储系统的性能潜力是用户永远的追求,但是,面对众多性能优化技术,还必须考虑到底是性能重要还是空间利用率重要。
在当前经济形势低迷的大背景下,挖掘现有存储系统的性能潜力成为用户的必然选择,不过追求性能只是一个方面。
看到的现象是大多数存储系统的空间利用率还不到50%,而且存储控制器的处理能力也只用到一小部分,这些都是让用户不可接受的事实。
在数据中心应用领域,通过服务器整合以及虚拟化技术,物理服务器的资源已经被最大化的利用起来,与此相反的是,存储效率低下的问题却成为用户的痛点。
若要实现服务器虚拟化的高效率,存储系统就必须跟得上,这是一个必要的前提,因此服务器虚拟化应用推动着存储技术向更高效的方向发展。
在虚拟化环境中,当前端服务器数量不断增加,后端存储阵列的不足便暴露出来,尤其表现在缺乏细粒度的分配和调动空间资源的能力方面。
因此,如果用户希望对数据中心进行高度整合,那么服务器虚拟化技术和高效的存储技术二者缺一不可。
存储效率是一个综合性的指标,实现最佳的存储效率意味着要在有效存储空间以及可用处理资源两方面都有出色表现,通常也是各产品之间相互竞争的重点。
StorageIO高级分析师GregSchulz说,“为了达到应用所需的IOPS能力,有些存储系统被设计得很大,通过大量磁盘的并发来提升IOPS,可是空间利用率却非常低,反之,追求空间利用率的最大化往往需要借助存储精简技术,比如压缩和重复数据删除等等,但是这些功能会对系统性能带来负面的影响“。
因此,达成高效的存储就需要在容量和性能之间寻找一个平衡点,根据应用需求的不同,对容量、处理能力、性能以及成本进行控制和优化。
保证存储效率有哪些基本条件优化存储系统的性能,本质上就是要尽可能地提高存储处理资源的利用率,同时尽量消除系统的瓶颈或阻塞。
随着处理资源利用率的增加,剩余的处理资源以及响应额外处理请求的能力相应的就会降低。
而且如果缓冲区太小,那么系统达到性能上限(瓶颈)的可能性就非常大。
举个例子来说,一个平均处理资源利用率在50%的磁盘阵列不太可能触及性能上限(瓶颈),而对于一个利用率达到80%的系统来说,这个可能性就要大得多。
高效存储技术及其对性能、容量和成本的影响由存储厂商或第三方公司提供的内嵌在存储系统内部或在外部附加的运行报告、监控以及存储分析功能是十分重要的,它们可以帮助用户更好的了解系统的运行情况,避免系统过度(过高)配置,并减少很多后期维护工作。
尤其是当用户需要优化性能或者按需增加处理资源时,这些组件的作用就会体现的非常明显。
对此,StorageIO高级分析师GregSchulz评价道:“无论是性能问题还是容量问题,好好利用存储厂商或第三方公司提供的工具都是十分重要的。
”这些工具不仅能够帮助用户定位性能的问题,更重要的方面在于它们可以帮助用户选择出最恰当的解决方案。
衡量一套存储系统的性能并不能依赖某个单一指标,而要考虑多种组合因素,它们每一项都对应用程序访问数据的速度有所影响。
其中,IOPS、吞吐带宽和访问延迟这三项指标是最关键的。
不过,指标数据究竟是好是坏还要考虑应用环境的差异,包括工作负载的类型(随机请求或者顺序请求)、数据块的大小、交易类型(读或是写),以及其他相关的能够影响性能的因素都依赖于应用程序本身的特点。
比方说,如果是流媒体视频应用,那么大文件快速顺序读性能和大数据块是最重要的;
而如果是虚拟化应用环境,那么随机读性能通常是最主要的考察指标。
下面的部分,将纵览那些可以优化性能并且提高存储资源利用率的技术,这里没有独门秘籍,因为每一种方法都有其优点和缺点。
通过堆砌磁盘数量来提高性能磁盘驱动器是一种机械装置,读写磁头通过在高速旋转盘片的内道和外道之间往复移动来寻找并读写数据。
即使是转速最快的15000转磁盘,其磁头机械臂的重定位时间延迟都会有数毫秒之多,因此每个磁盘的IOPS值最多只有几百个,吞吐带宽则局限在100MB/秒以内。
通过将数据分布在多个磁盘上,然后对多个磁盘同步进行读写访问是一种常见的扩展性能的方法。
通过增加磁盘的个数,系统整体的IOPS和带宽值也会等比例提升。
加之,有些存储厂商还提供shortstr好ing这样的可以缩短磁头机械臂移动距离的技术。
此类技术可以将数据集中放置在磁盘盘片的外道区域,结果是磁头移动的距离大大缩短,对数据访问的性能具有十分明显的提升作用。
可是,当通过利用大量的磁盘并发以及short-str好ing磁头短距离移动技术达成既定的性能目标之后,会发现其代价是非常高昂的,此外,由于仅仅使用了盘片的外道空间,所以存储的空间利用率会非常差。
早在SSD固态盘技术出现之前,利用大量的磁盘并发以及short-str好ing磁头短距离移动技术来满足应用的性能要求是最普遍的办法,即使在今天,这种方案依然被大量使用,原因是SSD固态盘的成本太高,所以用户依然青睐磁盘而不是SSD。
NatApp技术和战略总监MikeRiley就说:“对于顺序访问大数据块和大文件这样的应用,使用磁盘通常性价比更高。
”RAID及wide-striping技术对效率的影响很多用户容易忽视一点,即RAID和RAID级别其实都会对性能和容量产生影响。
通过改变RAID级别来提升存储性能或者空间的利用率是一种很现实的选择。
校验盘的数量、条带的大小、RAID组的尺寸以及RAID组内数据块大小都会影响性能和容量。
RAID技术对性能和容量的影响都熟悉那些常见的RAID级别及其特点,但还有一些不常见的技术趋势值得关注,这些都与讨论的存储效率有关。
首先,RAID组的尺寸会影响性能、可用性以及容量。
通常,大的RAID组包含的磁盘数量更多,速度也更快,但是,当出现磁盘故障后,大RAID组也需要更多的时间用来重建。
每隔几年,磁盘的容量都会翻一番,其结果是RAID重建的时间也相应变的更长,在数据重建期间出现其他磁盘故障的风险也变得更大。
即使是带有双校验机制,允许两块磁盘同时出现故障的RAID6也存在风险增加的问题,况且,RAID6对性能的影响还比较大。
有一个更好的办法是完全打破传统RAID组和私有校验盘的概念,比如,NetApp的DynamicDiskPools(DDP)技术,该技术将数据、校验信息以及闲置空间块分散放置在一个磁盘池中,池中所有的磁盘会并发处理RAID重建工作。
另一个有代表性的产品是HP的3PAR存储系统,3PAR采用了一种叫做widestriping的技术,将数据条块化之后散布在一大堆磁盘上,同时磁盘自身的裸容量又细分成若干小的存储块(chunklet)。
3PAR的卷管理器将这些小的chunklet组织起来形成若干个micro-RAID(微型RAID组),每个微型RAID组都有自己的校验块。
对于每一个单独的微型RAID组来说,其成员块(chunklet)都分布在不同的磁盘上,而且chunklet的尺寸也很小,因此数据重建时对性能的冲击和风险都是最小的。
固态存储毫无疑问,SSD固态存储的出现是一件划时代的“大事儿“,对于存储厂商来说,在优化性能和容量这两个方面,SSD技术都是一种全新的选择。
与传统的磁盘技术相比,SSD固态盘在延迟指标方面有数量级上的优势(微秒对毫秒),而在IOPS性能上,SSD的优势甚至达到了多个数量级(10000以上对数百)。
Flash技术(更多的时候是磁盘与flash的结合)为存储管理员提供了一种更具性价比的解决方案,不必像过去那样,为了满足应用对性能的高要求而不得不部署大批量的磁盘,然后再将数据分散在磁盘上并发处理。
SSD固态盘最佳的适用场景是大量数据的随机读操作,比如虚拟化hypervisor,但如果是大数据块和大文件的连续访问请求,SSD的优势就没有那么明显了。
EMC统一存储部门负责产品管理与市场的高级副总裁EricHerzog说:“Flash的价格仍然10倍于最高端的磁盘,因此,用户只能酌情使用,而且要用在刀刃上。
”目前,固态存储有三种不同的使用方式:第一种方式,用SSD固态盘完全代替机械磁盘。
用SSD替换传统的磁盘是最简单的提升存储系统性能的方法。
如果选择这个方案,关键的一点是用户要协同存储厂商来验证SSD固态盘的效果,并且遵循厂商提供的建议。
如果存储系统自身的处理能力无法承载固态存储的高性能,那么SSD有可能会将整个系统拖垮。
因为,如果SSD的速度超出了存储控制器的承受范围,那么很容易出现性能(I/O阻塞)问题,而且会越来越糟。
另一个问题涉及到数据移动的机制,即的数据在什么时候、以何种方式迁移到固态存储上,或从固态存储上移走。
最简单但也最不可取的方法是人工指定,比如通过手动设定将数据库的日志文件固定存放在SSD固态存储空间,对于比较老的存储系统来说,这也许是唯一的方式。
在这里推荐用户使用那些自动化的数据分层移动技术,比如EMC的FAST(FullyAutomatedStorageTiering)。
第二种方式,用Flash(固态存储芯片)作为存储系统的缓存。
传统意义上的DRAM高速缓存容量太小,因此可以用Flash作为DRAM的外围扩展,而这种利用Flash的方式较之第一种可能更容易实现一些。
Flash缓存本身是系统架构的一个组成部分,即使容量再大,也是由存储控制器直接管理。
而用Flash作缓存的设计也很容易解决数据分层的难题,根据一般的定义,最活跃的数据会一直放置在高速缓存里,而过期的数据则驻留在机械磁盘上。
与第一种方式比较,存储系统里所有的数据都有可能借助Flash高速缓存来提升访问性能,而第一种方式下,只有存放在SSD固态盘中的数据才能获得高性能。
初看起来,用Flash做高速缓存的方案几乎没有缺陷,可问题是只有新型的存储系统才支持这种特性,而且是选件,因此这种模式的发展受到一定的制约。
与此相反,看到用Flash做大容量磁盘的高速缓存(而不是系统的高速缓存)反而成为更普遍的存储架构设计选择,因为它可以将高容量和高性能更好的融合。
IBM存储软件业务经理RonRiffe说:“在一套磁盘阵列中,只需要增加2-3%的固态存储空间,几乎就可以让吞吐带宽提高一倍。
”在服务器中使用Flash存储卡。
数据的位置离CPU和内存越近,存储性能也就越好。
在服务器中插入PCIeFlash存储卡,比如Fusion-IO,就可以获得最佳的存储性能。
不太有利的一面是,内置的Flash存储卡无法在多台服务器之间共享,只有单台服务器上的应用程序才能享受这一好处,而且价格非常昂贵。
尽管如此,仍然有两个厂商对此比较热衷,都希望将自己的存储系统功能向服务器内部扩展。
一个是NetApp,正在使其核心软件DataOntap能够在虚拟机hypervisor上运行;
另一个是EMC,推出的功能叫做VFCache(原名叫ProjectLightning)。
显而易见,这两家公司的目标是通过提供服务器端的Flash存储分级获得高性能,而这种方式又能让用户的服务器与提供的外部存储系统无缝集成。
存储加速装置存储加速装置一般部署在服务器和存储系统之间,既可以提高存储访问性能,又可以提供附加的存储功能服务,比如存储虚拟化等等。
多数情况下,存储加速装置后端连接的都是用户已有的异构存储系统,包括各种各样的型号和品牌。
异构环境的问题是当面临存储效率低下或者性能不佳的困扰时,分析与评估的过程就比较复杂。
然而,存储加速装置能够帮助已有磁盘阵列改善性能,并将各种异构的存储系统纳入一个统一的存储池,这不但可以提升整个存储环境的整体性能、降低存储成本,而且还可以延长已有存储的服役时间。
最近由IBM发布的是此类产品的代表,它将IBM的存储虚拟化软件SVC(SANVolumeController)以及存储分析和管理工具集成在一个单独的产品中。
可以将各种异构的物理存储阵列纳入到一个虚拟存储池中,在这个池之上创建的卷还支持自动精简配置。
该装置不但可以管理连接在其后的存储阵列中的Flash固态存储空间,而且自身内部也可以安装Flash固态存储组件。
通过实时存储分析功能,能够识别出I/O访问频繁的数据以及热点区域,并能够自动地将数据从磁盘迁移到Flash固态存储上,反向亦然。
用户可以借助的这些功能大幅度的提高现有的异构混合存储系统环境的性能和空间利用率。
与IBM类似的产品还有Alacritech和Avere,它们都是基于块或基于文件的存储加速设备。
日益增加的存储空间利用率利用存储精简技术,可以最大化的利用起可用的磁盘空间,存储精简技术包括自动精简配置、瘦克隆、压缩以及重复数据删除等等。
这些技术都有一个共同的目标,即最大程度的引用已经存在的数据块,消除或避免存储重复的数据。
然而存储精简技术对系统的性能稍有影响,所以对于用户来说,只有在明确了性能影响程度并且能够接受这种影响的前提下,才应该启动重复数据删除或数据压缩的功能。
性能和容量:密不可分存储系统的性能和空间利用率是紧密相关的一对参数,提升或改进其中的一个,往往会给另一个带来负面的影响。
因此,只有好好的利用存储分析和报表工具,才能了解存储的真实性能表现,进而发现系统瓶颈并采取适当的补救措施,这是必要的前提。
总之,提高存储效率的工作其实就是在性能需求和存储成本之间不断的寻找平衡。
❻ 最近想把Windows Server 2012 R2搭建的存储池迁移,怎么弄
之前尝试过在CentOS下Build了一个ZFS,windows 自带的NFS client MOUNT ZFS NFS,速度只有15M/S, 可能是windows 的mount命令不支持某些特性,比如说异步,也不支持UTF8字符集,放弃,没有深入研究iSCSI/SMB是不是有性能提升,感觉ZFS不够灵活,加一个硬盘什么的还要占位,硬盘还要规格一样。。。
看到微软把windows server 2012 r2的存储池吹的神一样,所以就利用一些时间用虚拟机搭建下环境测试了,共两台虚拟机在一个hyper-v host上,使用Hyper-V internal Switch作为两台虚拟机的网卡(纯虚拟交换机,不经过物理网卡和路由器的折腾,性能应该更好) 1. 虚拟机windows server 2012 r2存储服务器: 用3个fixed VHD文件作为的3个磁盘,每个30GB,vhd文件分别放在不同的物理磁盘上 (2 hdd, 1 ssd) 2. 虚拟机Windows 7: 复制一个5GB的视频文件到存储服务器作为测试,结果如下:
Simple 模式:90MB/S
Mirror 模式: 70-80MB/S
Parity模式 (1个磁盘还是在ssd上的vhd disk): 30-40MB/S
尝试过在物理ssd上新建3个vhd文件做存储池的write back cache,大文件复制性能无改善 当然因为是虚拟机还是vhd disk,而且硬盘没有缓存,性能可能比实际物理硬盘低,测试结果仅供参考 接下去可能测试直接在Windows Server 2012 R2 HyperV Host上建立物理存储池和直接passthrough硬盘给存储虚拟机, 比较一下性能是否有提高, 当然虚拟机环境和存储最好分开,可能没有这个硬件条件搞两台机器
更新:
东芝2t * 3 passthrough到存储虚拟机然后建一个parity disk基本上有50m-60m左右,有时候能上70M,但是写小文件时候出现速度为0,一会又回复正常的情况,不解,3盘全开,咯咯咯咯的噪音不小
硬件:
CPU: E3 1230 V2
Memory: 32GB
Network: 山寨Intel ET Dual Port Server Adapter + Realtek E1000
HD: 浦科特128GB SSD * 1+ 三星830 64GB SSD * 1 + 东芝HDD 2TB * 3 + 250GB 东芝2.5寸HDD * 1 + 1TB WD 3.5寸USB HDD * 1
GPU: AMD HD 7850
主机,Windows 2012 R2 Hyper-V安装在浦科特m5s 128GB SSD上面
如果开一个虚拟机安装windows server 2012 r2 standard做存储池的话,硬盘使用passthrough是不行的,因为做存储池时对虚拟机中的硬盘的改写直接写到直通的硬盘上,重启电脑后,虚拟机会启动不了,因为直通的硬盘被改写了,hyper-v 里面已经识别不了了,在hyper-v主机上打开存储池的管理界面会发现存储池在hyper-v host上。。。
我把INTEL双口网卡做Teaming (sr-iov怎么都无法启用,不知道是山寨网卡的问题还是Z77主板的问题 (VT-D支持),说什么Access Control Service在BIOS没有启用什么的):
存储池中的硬盘: 东芝HDD 2TB * 3 + 三星830 SSD 64GB
1. Parity disk: 1TB at 3 HDD, Thin Provisioning, 放照片等重要的东西,貌似parity disk无法分层,这样没有使用SSD读加速了
2. Simple Disk1(启用存储分层): 40GB at 1 SSD + 210GB at 3 HDD + 4GB Write Back Cache at 1 SSD, Fixed Provisioning, 运行虚拟机用,开读写缓存增加性能
3. Simple Disk2 * 3: 1.82TB at 1 HDD, , Thin Provisioning,存放电影, 要想只在HDD上建立vDisk, 需要ps命令 (大于800GB的都是HDD DISK), 分别对每一个硬盘做一个Virtual Disk, 这样即使每个硬盘坏了,不会影响其他的Virtual Disk上的文件,默认如果使用全部3个HDD的话作为一个Disk的物理盘的话,文件会平均分配到3个硬盘,即使设置NumberOfColumns = 1,一个硬盘挂,文件挂,
4. 在上面建立放电影的disk上开NFS/SMB共享,高清播放器可以播放
在Simple Disk1开一个虚拟机,直通一个250 2.5寸东芝笔记本HDD作下载,下载完转移到1TB 3.5寸西部数据USB硬盘
再在Simple Disk1开一个虚拟机,安装windows 7工作用, windows 7的IE兼容性好
❼ win10的个人用户能用存储池改善HDD性能么
不可以用固态加速,win10的存储池没有分层的功能。之前有在网站上看到报道,说win10可以全自动建立分层储存。但我测试了一下,储存池结构120g三星ssd.2T西数绿*1,3T西数蓝*3,放到win10上构建储存池,保存数据后迁移到win ser2016上识别。仅仅是简单的把这几个硬盘放一起了而已,未建立分层。
但是基本的多HHD放一块提高速度,这个功能还是有的。simple模式写入能有不到200,性能差于用过的软raid,但是存储池比raid方便太多。
❽ 求教诸君大佬,Server 2012R2的存储池,如何用SSD作缓存
13年10月的正式版cn_windows_server_2012_r2_vl_x64_dvd_3316795.iso13年12月12日发的新版
❾ 如何使用SSD解决桌面虚拟化的启动风暴求解
不过支撑VDI的存储环境需要仔细的规划,以避免VDI启动风暴的问题,即当大量的用户同时登录系统时所造成的系统反应非常缓慢。有许多方法可以解决这个问题,但最有效的方法是将数据巧妙的放置在固态硬盘(SSD)上。
VDI启动风暴的问题表现形式非常简单。虚拟桌面工作负载是可预测的;它基于桌面用户的工作时间,通常是每个工作日的上午9点到下午5点。相对于服务器的工作负载而言,普通的一台虚拟桌面所产生的所有存储I/O是相当低的,因此通常在一台物理主机上可以部署的虚拟桌面的密度比虚拟服务器要大得多。相反,虚拟桌面的初始启动则相当消耗资源,此时操作系统和应用需要从磁盘读取大量的数据以加载和执行。
启动风暴发生在大量的虚拟桌面在短时间内同时启动之时(例如,在上午8点到9点之间),由此引起的大量存储I/O可以很轻易的将存储系统淹没。如果存储系统不能很好的设计以处理如此密集的I/O负载,最终存储系统将无法提供服务。
当这种情况发生时,桌面用户将会感觉到虚拟桌面极度缓慢,以至于几乎无法使用。如果这种情况每天发生,那么你可以确定你的用户将会不停的抱怨,你的VDI项目将趋于失败,你的用户也会强烈要求重新使用他们的物理桌面。你必须竭尽全力避免这种情况发生,也即由于缺乏良好的设计而导致一项具有许多优点的技术解决方案,最终的实现效果却非常之差。
在VDI实施之后来改善缺乏良好设计的存储系统是可能的,但相对于在之前做出正确的规划,代价要高昂得多,例如也许你的系统由于无法升级以满足需求,导致系统需要整个被替换掉。
一旦用户启动系统,登录和加载应用之后,存储I/O通常将保持在一个比较低的水平。虚拟桌面在启动时和启动之后所产生的IOPS有着天壤之别,导致VDI环境下的存储架构设计极具挑战性。通常,运行Windows 7的虚拟桌面在启动时会产生50到100个IOPS,一旦运行平稳,平均IOPS下降到5-10。因此,为了满足由启动风暴引起的I/O需求,你的存储系统通常需要设计成能满足这种最坏的情况。
仅仅为满足启动风暴时的IOPS需求而设计的存储架构将相当昂贵。通常,为增加存储系统的IOPS处理能力,你需要增加更多的的物理磁盘,从而使负载可以分布在更多的磁盘之上。这意味着你将拥有大量超出你需求磁盘容量。设想,设计一条具有8车道的高速公路,仅仅只是为了处理每天1到2个小时的高峰期拥堵,而在余下的时间里,仅仅两条车道就足以应付。最终的结果,你将不得不维护一条极其昂贵的高速公路。
使用SSD解决VDI启动风暴问题
为了平安度过启动风暴,相对于装备整个的存储阵列来处理所需的IOPS,存在更好的解决方案。你可以通过增加两条大容量快速车道来处理高峰期的车流,而不是建造一条8车道的高速公路。
SSD相对于传统的机械磁盘要快得多,传统机械磁盘通常受限于磁盘转速。一般而言,每分钟15000转的SAS磁盘最多可以处理的IOPS为180,而SSD可以处理大约5000个IOPS。当然,这种性能的提升也伴随着极高的成本。如果用于虚拟桌面的存储系统全部采用SSD磁盘,固然很好,但对于绝大多数用户而言,高昂的成本将使他们望而却步。
不过使用少量的SSD磁盘来承载启动风暴时所产生的大量I/O是非常经济的。如此设计,你可以使用大量价格相对较低的SAS和 SATA磁盘来满足磁盘容量的需求,同时少量的SSD磁盘来满足处理高峰期I/O负载的性能需求。
选项A: 将某些文件放在SSD上。这种解决方案有多种实现方式。第一种是将虚拟机的母版映像文件和副本放置SSD存储池中。当在VDI中使用Linked Clones(在VMware View中)或Machine Creation Services(在XenDesktop中)时,母版映像文件作为只读磁盘为所有桌面虚拟机所共享。它是所有部署的桌面操作系统的母盘,然后每个虚拟机将单独保留一份可写的快照以存放所有对于母盘的修改。
当桌面虚拟机经历启动过程时,大部分的磁盘活动来自于母版映像,也就是大部分的操作系统文件和应用文件存放的地方。因此,将母版映像和副本存放在SSD存储上可以消除启动风暴。其它所有单独的虚拟机快照磁盘可以存放在较低层级(SAS或SATA)的存储上。
选项B:使用SSD作为缓存层。另外一种解决启动风暴的方法是将快速的SSD磁盘作为缓存层放置在由SAS和SATA组成的较慢存储池的前端。飞康的NSS SAN Accelerator即是针对VMware View的这样一种解决方案,NSS SAN Accelerator包含由SSD磁盘组成的硬件装置,放置在主机和存储设备之间。此硬件装置作为缓存层,所有的存储I/O都将通过它到达后端的存储设备。缓存硬件装置可以识别频繁访问的磁盘数据块,并自动将其缓存,这样这些数据块将可以从快速的SSD磁盘读取,而非从较慢的后端存储。通过缓存一些共同的数据如虚拟机母版映像,它可以按需动态调整以满足任何高I/O需求,从而消除启动风暴。
显然,实现这些解决方案的最佳时机是在你的VDI项目的设计阶段。如今,很多的存储设备都具备存储分层的功能,支持将不同性能特征的磁盘放置在同一存储池里。它们也可以用来解决由启动风暴引起的存储 I/O瓶颈问题。通过加入由少量SSD磁盘组成的存储池,你可以将虚拟机母版映像从较慢的存储层转移到SSD存储层,以处理由启动风暴引起的大量I/O。在现有的主机和存储设备之间加入飞康的硬件装置是一种简便易行的手段,对已有的基础架构的影响和改动也非常之小。
SSD容量规划
当SSD作为存储层实现以应对启动风暴所引起的峰值I/O时,正确的容量规划就显得相当重要。为确定购买多少SSD磁盘,你必须计算出你的虚拟桌面系统所产生的最大I/O值。尽管你可以使用基于典型环境下的估算值,建议您最好使用性能分析工具测算出现有物理桌面系统的实际I/O,如使用Lakeside软件公司的SysTrack VDI评测工具,因为每一个用户的环境都不尽相同。将主机上承载的虚拟桌面数量-例如500,乘以桌面系统在启动时产生的典型IOPS-例如60,就可以确定出所有桌面同时登录时所产生的总体IOPS(500 x 60 = 30,000)。由于所有桌面不可能完全在同一时刻登录,你可以将计算出的值稍微向下调整。不过估算多一些余量总是更好一些。
一旦确定了你的IOPS需求,你需要据此来规划你的SSD存储层。如果单块的SSD可以处理5000个IOPS,6块SSD则可以处理30000个IOPS。(注意这只是大致的估算。为了实现适合你特定环境的最佳方案,你必须对你的需求进行正确的评估,并和存储厂商一起实现满足你需求的SSD解决方案)
预防和解决启动风暴问题并不意味着非常昂贵或复杂,SSD提供了一种很好的解决方案以解决虚拟桌面环境下的几个重大问题之一。VDI项目实现起来可能会非常昂贵,在许多公司,由于VDI项目的投资回报并非像服务器虚拟化那么明显,为VDI项目获得资金资助也相对困难。将SSD和廉价存储混合可以让你在降低项目费用的同时,仍然可以提供足够的性能以消除启动风暴。
❿ 苹果电脑兼容NVMe SSD的存储池
当可在公司网站上订购Apple的2019 Mac Pro时,最多只能配置4TB的PCIe NVMe SSD。
在笔记本领域,SSD主要以两种形态示人。其一是2.5英寸硬盘形态,也就是我们常说的“笔记本硬盘”,采用了标准的SATA3.0(又称6Gbps)接口。其二则是迷你硬盘形态,包括mSATA(已淘汰)和M.2(早期又称NGFF)两种接口,而M.2则还能细分为B Key(又称Socket2)和M Key(又称Socket3)两种标准,其中只有M Key才能支持PCI Express Gen 3×4总线(下文简称PCI-E 3.0×4)。
严格意义来讲,NVMe SSD这种说法是不严谨的,NVMe(Non-Volatile Memory Express,非易失性存储器)只是一种高速传输协议规范,用来取代AHCI传输协议。我们可以将NVMe理解为一种专门针对PCI-E 3.0×4总线定制的“优化驱动”,这种超高速SSD的完整名称,应该是“支持NVMe协议的、运行在PCI-E 3.0×4通道模式的M Key标准插槽的M.2 SSD”。