存储设备发展
A. 云存储的发展历程
云存储是在云计算(cloud puting)概念上延伸和衍生发展出来的一个新的概念。
云计算是分布式处理(Distributed puting)、并行处理(Parallel puting)和网格计算(Grid puting)的发展,是透过网络将庞大的计算处理程序自动分拆成无数个较小的子程序,再交由多部服务器所组成的庞大系统经计算分析之后将处理结果回传给用户。
通过云计算技术,网络服务提供者可以在数秒之内,处理数以千万计甚至亿计的信息,达到和”超级计算机”同样强大的网络服务。
各类云存储图册(2张)
云存储的概念与云计算类似,它是指通过集群应用、网格技术或分布式文件系统等功能,将网络中大量各种不同类型的存储设备通过应用软件 *** 起来协同工作,共同对外提供数据存储和业务访问功能的一个系统,保证数据的安全性,并节约存储空间[1]。
如果这样解释还是难以理解,那我们可以借用广域网和互联网的结构来解释云存储。
云状的网络结构
相信大家对局域网、广域网和互联网都已经非常了解了。
在常见的局域网系统中,我们为了能更好地使用局域网,一般来讲,使用者需要非常清楚地知道网络中每一个软硬件的型号和配置,比如采用什么型号交换机,有多少个端口,采用了什么路由器和防火墙,分别是如何设置的。
系统中有多少个服务器,分别安装了什么操作系统和软件。
各设备之间采用什么类型的连接线缆,分配了什么 xml:lang=IP地址和子网掩码。
但当我们使用广域网和互联网时,我们只需要知道是什么样的接入网和用户名、密码就可以连接到广域网和互联网,并不需要知道广域网和互联网中到底有多少台交换机、路由器、防火墙和服务器,不需要知道数据是通过什么样的路由到达我们的电脑,也不需要知道网络中的服务器分别安装了什么软件,更不需要知道网络中各设备之间采用了什么样的连接线缆和端口。
广域网和互联网对于具体的使用者是完全透明的,我们经常用一个云状的图形来表示广域网和互联网,如下图:
虽然这个云图中包含了许许多多的交换机、路由器、防火墙和服务器,但对具体的广域网、互联网用户来讲,这些都是不需要知道的。
这个云状图形代表的是广域网和互联网带给大家的互联互通的网络服务,无论我们在任何地方,都可以通过一个网络接入线缆和一个用户、密码,就可以接入广域网和互联网,享受网络带给我们的服务。
参考云状的网络结构,创建一个新型的云状结构的存储系统系统,这个存储系统由多个存储设备组成,通过集群功能、分布式文件系统或类似网格计算等功能联合起来协同工作,并通过一定的应用软件或应用接口,对用户提供一定类型的存储服务和访问服务。
当我们使用某一个独立的存储设备时,我们必须非常清楚这个存储设备是什么型号,什么接口和传输协议,必须清楚地知道存储系统中有多少块磁盘,分别是什么型号、多大容量,必须清楚存储设备和服务器之间采用什么样的连接线缆。
为了保证数据安全和业务的连续性,我们还需要建立相应的数据备份系统和容灾系统。
除此之外,对存储设备进行定期地状态监控、维护、软硬件更新和升级也是必须的。
如果采用云存储,那么上面所提到的一切对使用者来讲都不需要了。
云状存储系统中的所有设备对使用者来讲都是完全透明的,任何地方的任何一个经过授权的使用者都可以通过一根接入线缆与云存储连接,对云存储进行数据访问。
希望对您有用
B. 内存储器的发展历程
对于用过386机器的人来说,30pin的内存,我想在很多人的脑海里,一定或多或少的还留有一丝印象,这一次我们特意收集的7根30pin的内存条,并拍成图片,怎么样看了以后,是不是有一种久违的感觉呀!
30pin 反面 30pin 正面
下面是一些常见内存参数的介绍:
bit 比特,内存中最小单位,也叫“位”。它只有两个状态分别以0和1表示
byte字节,8个连续的比特叫做一个字节。
ns(nanosecond)
纳秒,是一秒的10亿分之一。内存读写速度的单位,其前面数字越小表示速度越快。
72pin正面 72pin反面
72pin的内存,可以说是计算机发展史的一个经典,也正因为它的廉价,以及速度上大幅度的提升,为电脑的普及,提供了坚实的基础。由于用的人比较多,目前在市场上还可以买得到。
SIMM(Single In-line Memory Moles)
单边接触内存模组。是5X86及其较早的PC中常采用的内存接口方式。在486以前,多采用30针的SIMM接口,而在Pentuim中更多的是72针的SIMM接口,或者与DIMM接口类型并存。人们通常把72线的SIMM类型内存模组直接称为72线内存。
ECC(Error Checking and Correcting)
错误检查和纠正。与奇偶校验类似,它不但能检测到错误的地方,还可以纠正绝大多数错误。它也是在原来的数据位上外加位来实现的,这些额外的位是用来重建错误数据的。只有经过内存的纠错后,计算机操作指令才可以继续执行。当然在纠错是系统的性能有着明显的降低。
EDO DRAM(Extended Data Output RAM)
扩展数据输出内存。是Micron公司的专利技术。有72线和168线之分、5V电压、带宽32bit、基本速度40ns以上。传统的DRAM和FPM DRAM在存取每一bit数据时必须输出行地址和列地址并使其稳定一段时间后,然后才能读写有效的数据,而下一个bit的地址必须等待这次读写操作完成才能输出。EDO DRAM不必等待资料的读写操作是否完成,只要规定的有效时间一到就可以准备输出下一个地址,由此缩短了存取时间,效率比FPM DRAM高20%—30%。具有较高的性/价比,因为它的存取速度比FPM DRAM快15%,而价格才高出5%。因此,成为中、低档Pentium级别主板的标准内存。
DIMM(Dual In-line Memory Moles)
双边接触内存模组。也就是说这种类型接口内存的插板两边都有数据接口触片,这种接口模式的内存广泛应用于现在的计算机中,通常为84针,由于是双边的,所以共有84×2=168线接触,所以人们常把这种内存称为168线内存。
PC133
SDRAM(Synchronous Burst RAM)
同步突发内存。是168线、3.3V电压、带宽64bit、速度可达6ns。是双存储体结构,也就是有两个储存阵列,一个被CPU读取数据的时候,另一个已经做好被读取数据的准备,两者相互自动切换,使得存取效率成倍提高。并且将RAM与CPU以相同时钟频率控制,使RAM与CPU外频同步,取消等待时间,所以其传输速率比EDO DRAM快了13%。SDRAM采用了多体(Bank)存储器结构和突发模式,能传输一整数据而不是一段数据。
SDRAM ECC 服务器专用内存
RDRAM(Rambus DRAM)
是美国RAMBUS公司在RAMBUSCHANNEL技术基础上研制的一种存储器。用于数据存储的字长为16位,传输率极速指标有望达到600MHz。以管道存储结构支持交叉存取同时执行四条指令,单从封装形式上看,与DRAM没有什么不同,但在发热量方面与100MHz的SDRAM大致相当。因为它的图形加速性能是EDO DRAM的3-10倍,所以目前主要应用于高档显卡上做显示内存。
Direct RDRAM
是RDRAM的扩展,它使用了同样的RSL,但接口宽度达到16位,频率达到800MHz,效率更高。单个传输率可达到1.6GB/s,两个的传输率可达到3.2GB/s。
点评:
30pin和72pin的内存,早已退出市场,现在市场上主流的内存,是SDRAM,而SDRAM的价格越降越底,对于商家和厂家而言,利润空间已缩到了极限,赔钱的买卖,有谁愿意去做了?再者也没有必要,毕竟厂家或商家们总是在朝着向“钱”的方向发展。
随着 INTEL和 AMD两大公司 CPU生产飞速发展,以及各大板卡厂家的支持,RAMBUS 和 DDRAM 也得到了更快的发展和普及,究竟哪一款会成为主流,哪一款更适合用户,市场终究会证明这一切的。
机存取存储器是电脑的记忆部件,也被认为是反映集成电路工艺水平的部件。各种存储器中以动态存储器(DRAM)的存储容量为最大,使用最为普及,几十年间它的存储量扩大了几千倍,存取数据的速度提高40多倍。存储器的集成度的提高是靠不断缩小器件尺寸达到的。尺寸的缩小,对集成电路的设计和制造技术提出了极为苛刻的要求,可以说是只有一代新工艺的突破,才有一代集成电路。
动态读写存储器DRAM(Dynamic Random Access MeMory)是利用MOS存储单元分布电容上的电荷来存储数据位,由于电容电荷会泄漏,为了保持信息不丢失,DRAM需要不断周期性地对其刷新。由于这种结构的存储单元所需要的MOS管较少,因此DRAM的集成度高、功耗也小,同时每位的价格最低。DRAM一般都用于大容量系统中。DRAM的发展方向有两个,一是高集成度、大容量、低成本,二是高速度、专用化。
从1970年Intel公司推出第一块1K DRAM芯片后,其存储容量基本上是按每三年翻两番的速度发展。1995年12月韩国三星公司率先宣布利用0.16μm工艺研制成功集成度达10亿以上的1000M位的高速(3lns)同步DRAM。这个领域的竞争非常激烈,为了解决巨额投资和共担市场风险问题,世界范围内的各大半导体厂商纷纷联合,已形成若干合作开发的集团格局。
1996年市场上主推的是4M位和16M位DRAM芯片,1997年以16M位为主,1998年64M位大量上市。64M DRAM的市场占有率达52%;16M DRAM的市场占有率为45%。1999年64M DRAM市场占有率已提高到78%,16M DRAM占1%。128M DRAM已经普及,明年将出现256M DRAM。
高性能RISC微处理器的时钟已达到100MHz~700MHz,这种情况下,处理器对存储器的带宽要求越来越高。为了适应高速CPU构成高性能系统的需要,DRAM技术在不断发展。在市场需求的驱动下,出现了一系列新型结构的高速DRAM。例如EDRAM、CDRAM、SDRAM、RDRAM、SLDRAM、DDR DRAM、DRDRAM等。为了提高动态读写存储器访问速度而采用不同技术实现的DRAM有:
(1) 快速页面方式FPM DRAM
快速页面方式FPM(Fast Page Mode)DRAM已经成为一种标准形式。一般DRAM存储单元的读写是先选择行地址,再选择列地址,事实上,在大多数情况下,下一个所需要的数据在当前所读取数据的下一个单元,即其地址是在同一行的下一列,FPM DRAM可以通过保持同一个行地址来选择不同的列地址实现存储器的连续访问。减少了建立行地址的延时时间从而提高连续数据访问的速度。但是当时钟频率高于33MHz时,由于没有足够的充电保持时间,将会使读出的数据不可靠。
(2) 扩展数据输出动态读写存储器EDO DRAM
在FPM技术的基础上发展起来的扩展数据输出动态读写存储器EDODRAM(Extended Data Out DRAM),是在RAM的输出端加一组锁存器构成二级内存输出缓冲单元,用以存储数据并一直保持到数据被可靠地读取时为止,这样就扩展了数据输出的有效时间。EDODRAM可以在50MHz时钟下稳定地工作。
由于只要在原DRAM的基础上集成成本提高并不多的EDO逻辑电路,就可以比较有效地提高动态读写存储器的性能,所以在此之前,EDO DRAM曾成为动态读写存储器设计的主流技术和基本形式。
(3) 突发方式EDO DRAM
在EDO DRAM存储器的基础上,又发展了一种可以提供更高有效带宽的动态读写存储器突发方式EDO DRAM(Burst EDO DRAM)。这种存储器可以对可能所需的4个数据地址进行预测并自动地预先形成,它把可以稳定工作的频率提高到66MHz。
(4) 同步动态读写存储器SDRAM
SDRAM(Synchronous DRAM)是通过同步时钟对控制接口的操作和安排片内隔行突发方式地址发生器来提高存储器的性能。它仅需要一个首地址就可以对一个存储块进行访问。所有的输入采样如输出有效都在同一个系统时钟的上升沿。所使用的与CPU同步的时钟频率可以高达66MHz~100MHz。它比一般DRAM增加一个可编程方式寄存器。采用SDRAM可大大改善内存条的速度和性能,系统设计者可根据处理器要求,灵活地采用交错或顺序脉冲。
Infineon Technologies(原Siemens半导体)今年已批量供应256Mit SDRAM。其SDRAM用0.2μm技术生产,在100MHz的时钟频率下输出时间为10ns。
(5) 带有高速缓存的动态读写存储器CDRAM
CDRAM(Cached DRAM)是日本三菱电气公司开发的专有技术,1992年推出样品,是通过在DRAM芯片,集成一定数量的高速SRAM作为高速缓冲存储器Cache和同步控制接口,来提高存储器的性能。这种芯片用单一+3.3V电源,低压TTL输入输出电平。目前三菱公司可以提供的CDRAM为4Mb和16Mb,其片内Cache为16KB,与128位内部总线配合工作,可以实现100MHz的数据访问。流水线式存取时间为7ns。
(6) 增强型动态读写存储器EDRAM(Enhanced DRAM)
由Ramtron跨国公司推出的带有高速缓冲存储器的DRAM产品称作增强型动态读写存储器EDRAM(Enhanced DRAM),它采用异步操作方式,单一+5V工作电源,CMOS或TTL输入输出电平。由于采用一种改进的DRAM 0.76μm CMOS工艺和可以减小寄生电容和提高晶体管增益的结构技术,其性能大大提高,行访问时间为35ns,读/写访问时间可以提高到65ns,页面写入周期时间为15ns。EDRAM还在片内DRAM存储矩阵的列译码器上集成了2K位15ns的静态RAM高速缓冲存储器Cache,和后写寄存器以及另外的控制线,并允许SRAM Cache和DRAM独立操作。每次可以对一行数据进行高速缓冲。它可以象标准的DRAM对任一个存储单元用页面或静态列访问模式进行操作,访问时间只有15ns。当Cache未命中时,EDRAM就把新的一行加载到Cache中,并把选择的存储单元数据输出,这需要花35ns。这种存储器的突发数据率可以达到267Mbytes/s。
(7) RDRAM(Rambus DRAM)
Rambus DRAM是Rambus公司利用本身研制的一种独特的接口技术代替页面方式结构的一种新型动态读写存储器。这种接口在处理机与DRAM之间使用了一种特殊的9位低压负载发送线,用250MHz同步时钟工作,字节宽度地址与数据复用的串行总线接口。这种接口又称作Rambus通道,这种通道嵌入到DRAM中就构成Rambus DRAM,它还可以嵌入到用户定制的逻辑芯片或微处理机中。它通过使用250MHz时钟的两个边沿可以使突发数据传输率达到500MHz。在采用Rambus通道的系统中每个芯片内部都有它自己的控制器,用来处理地址译码和面页高速缓存管理。由此一片存储器子系统的容量可达512K字节,并含有一个总线控制器。不同容量的存储器有相同的引脚并连接在同一组总线上。Rambus公司开发了这种新型结构的DRAM,但是它本身并不生产,而是通过发放许可证的方式转让它的技术,已经得到生产许可的半导体公司有NEC、Fujitsu、Toshiba、Hitachi和LG等。
被业界看好的下一代新型DRAM有三种:双数据传输率同步动态读写存储器(DDR SDRAM)、同步链动态读写存储器(SLDRAM)和Rambus接口DRAM(RDRAM)。
(1) DDR DRAM(Double Data Rate DRAM)
在同步动态读写存储器SDRAM的基础上,采用延时锁定环(Delay-locked Loop)技术提供数据选通信号对数据进行精确定位,在时钟脉冲的上升沿和下降沿都可传输数据(而不是第一代SDRAM仅在时钟脉冲的下降沿传输数据),这样就在不提高时钟频率的情况下,使数据传输率提高一倍,故称作双数据传输率(DDR)DRAM,它实际上是第二代SDRAM。由于DDR DRAM需要新的高速时钟同步电路和符合JEDEC标准的存储器模块,所以主板和芯片组的成本较高,一般只能用于高档服务器和工作站上,其价格在中低档PC机上可能难以接受。
(2) SLDRAM(Synchnonous Link DRAM)
这是由IBM、HP、Apple、NEC、Fujitsu、Hyundai、Micron、TI、Toshiba、Sansung和Siemens等业界大公司联合制定的一个开放性标准,委托Mosaid Technologies公司设计,所以SLDRAM是一种原本最有希望成为高速DRAM开放性工业标准的动态读写存储器。它是一种在原DDR DRAM基础上发展的一种高速动态读写存储器。它具有与DRDRAM相同的高数据传输率,但是它比其工作频率要低;另外生产这种存储器不需要支付专利使用费,使得制造成本较低,所以这种存储器应该具有市场竞争优势。但是由于SLDRAM联盟是一个松散的联合体,众多成员之间难以协调一致,在研究经费投入上不能达成一致意见,加上Intel公司不支持这种标准,所以这种动态存储器反而难以形成气候,敌不过Intel公司鼎立支持的Rambus公司的DRDRAM。SLDRAM可用于通信和消费类电子产品,高档PC和服务器。
(3) DRDRAM(Direct Rambus DRAM)
从1996年开始,Rambus公司就在Intel公司的支持下制定新一代RDRAM标准,这就是DRDRAM(Direct RDRAM)。这是一种基于协议的DRAM,与传统DRAM不同的是其引脚定义会随命令而变,同一组引脚线可以被定义成地址,也可以被定义成控制线。其引脚数仅为正常DRAM的三分之一。当需要扩展芯片容量时,只需要改变命令,不需要增加硬件引脚。这种芯片可以支持400MHz外频,再利用上升沿和下降沿两次传输数据,可以使数据传输率达到800MHz。同时通过把数据输出通道从8位扩展成16位,这样在100MHz时就可以使最大数据输出率达1.6Gb/s。东芝公司在购买了Rambus公司的高速传输接口技术专利后,于1998年9月首先推出72Mb的RDRAM,其中64Mb是数据存储器,另外8Mb用于纠错校验,由此大大提高了数据读写可靠性。
Intel公司办排众议,坚定地推举DRDRAM作为下一代高速内存的标准,目前在Intel公司对Micro、Toshiba和Samsung等公司组建DRDRAM的生产线和测试线投入资金。其他众多厂商也在努力与其抗争,最近AMD宣布至少今年推出的K7微处理器都不打算采用Rambus DRAM;据说IBM正在考虑放弃对Rambus的支持。当前市场上同样是64Mb的DRAM,RDRAM就要比其他标准的贵45美元。
由此可见存储器的发展动向是:大容量化,高速化, 多品种、多功能化,低电压、低功耗化。
存储器的工艺发展中有以下趋势:CHMOS工艺代替NMOS工艺以降低功耗;缩小器件尺寸,外围电路仍采用ECL结构以提高存取速度同时提高集成度;存储电容从平面HI-C改为深沟式,保证尺寸减少后的电荷存储量,以提高可靠性;电路设计中简化外围电路结构,注意降低噪声,运用冗余技术以提高质量和成品率;工艺中采用了多种新技术;使DRAM的存储容量稳步上升,为今后继续开发大容量的新电路奠定基础。
从电子计算机中的处理器和存储器可以看出ULSI前进的步伐和几十年间的巨大变化。
C. 什么是云存储你如何看待云存储
云存储的几十年发展历程,其计算架构模型,也从Scale Up走向Scale Out。但是展望未来数字世界的海量需求,目前流行的模型还能够持续满足吗?本文通过对云存储 历史 的回顾,及对Scale Up和Scale Out两种扩展模型的诠释,来揭开云存储的未来模式。
1. 云存储及其 历史
简而言之,云存储(cloud storage)就是将数字内容安全的存储在服务器上,从而任何连接互联网的设备可以方便的获取。首先让我们简单回顾一下云存储的 历史 。
云存储的早期雏形要回溯到上个世纪的90年代,也就是互联网泡沫时期(dot-com boom),当时有许多家公司,例如EVault, NetMass, Arkeia和CommVault等等[1]均提供在线数据备份服务,当然它们绝大部分也随着互联网泡沫的破碎而烟消云散了。少数幸存下来的有一家叫Veritas NetBackup最后也被Symantec收购,现在依旧提供Symantec NetBackup的在线存储服务。
而真正让大家耳熟能详的云存储是2006年由Amazon提供的AWS S3云存储服务,其最具有革命意义的变革是,提出了即买即用(pay-per-use)的价格模型,使得云存储的使用像水电一样可计算衡量。从此云存储以S3为标准一路绝尘,我们所熟悉的大厂,比如Netflix, Pinterest, Dropbox也是S3的顾客。尾随的Microsoft和Google也于2010年分别发布了类似的Azure Blob Storage和Google Storage的存储服务。
云存储真正发展的十几年中,见证了移动互联网的崛起,大数据的生机勃发,人工智能的再次复兴,并能够展望到未来物联网,无人驾驶及各类机器人自动化的世界。海量数据的产生,存储,分析,预测及应用,快速以正反馈循环方式,推进着人类 社会 向数字世界大步迈进。所以,为了适应数据存储新的需求,各家云存储产品的应用场景及价格模型,已从单一向多元发展,比如AWS S3就有Standard,Intelligent-Tiering, Standard-IA,One Zone-IA,Glacier和Glacier Deep Archive六类存储产品来满足各类使用场景,我会在未来的文章里针对性的细讲一下。而本文重点所探讨的是,目前云存储的基础架构体系是否能够适应未来数据存储的要求和挑战?为了回答这个问题,让我们先简单回顾一下计算机体系架构里的Scale Up和Scale Out扩展模型。
2. Scale Up和Scale Out?
Scale Up又称为垂直扩展(scale vertically)[2],意为在单节点上添加资源,如CPU,内存和存储,在纵向上扩展从而获得更多计算或存储能力;Scale Up初期能够快速达到升级目的,操作起来相对比较简单,但随着计算或存储的要求越来越高,硬件资源的添加可能已经达到极限,不仅单节点的造价非常昂贵,维护成本很高,而且更容易留下单点故障的隐患。传统的RAID(Rendant Array of Inexpensive Disks)存储就是此种模式。
Scale Out又称为水平扩展(scale horizontally)[2],意为在分布式环境下,通过添加节点计算或存储资源,在横向上满足更多的计算存储需求;随着计算和存储单位价格的降低和效率的提升,使用低端的商用(commodity)系统,利用分布式技术可以搭建起“超级计算”中心,以及后来衍生出来的私有或公有云平台解决方案。虽然分布式系统会带来一定程度上的软件复杂度和管理困难,但由软件定义的计算和存储解决方案,能够以较低的价格和较高的鲁棒性,优雅的解决了海量增长的计算存储需求,也是目前云平台的主流技术。但它就一定能够承载未来的更加海量的需求吗?云存储的未来是什么?方向是向左还是向右?
3. 未来向左还是向右?
话说天下大势, 分久必合, 合久必分,事物发展的规律似乎从来就没有什么绝对。当下,云平台内部似乎已完全是Scale Out模式了,但当我们把镜头再拉远一点,从云平台在全球部署的每一个可用区来看,整体上它又是一个Scale Up模型,不是吗?单点投入巨大,耗费能源,使用成本高昂。而相反,随着强大的计算,存储和带宽能力能够进入寻常家庭、工作和生活等边缘节点,资源闲置或者不均衡使用也变得越来越明显。
那么,是否能够将这些边缘节点的计算存储能力结合起来,组成一个真正意义上的Scale Out平台,提供人们日益增长的计算存储需求?
可否将浪费或者不对等的资源重新组合,提供一个更加节能环保的绿色Scale Out平台?
可否摒弃中心化的单点故障和数据安全隐患,真正做到廉价高效,零数据泄露的Scale Out平台?
答案是应该可以而且必须可以!
纵观云存储平台的发展 历史 ,从单节点的Scale Up模式走向可用区内部的Scale Out模式,又从内部的Scale Out模式走向整体上相对的Scale Up模式。而未来数字世界的海量计算和存储需求的满足,一定需要真正意义上的全球Scale Out模型,那就是把边缘节点和半中心化节点高效且系统的组织起来,减少浪费,提高效率,节省成本,去除中心。将天空中几块为数不多的白云,变成漫天遍布的朵朵白云,让人们自由定价、自由选择、自由组合。
挑战虽然巨大,但未来很美好,让我们一起努力迎接云存储的明天!
[1]: History of Online Storage
[2]: Wiki Scalability
文章作者:Bruce Lee(http://PP.IO总架构师)
转载请注明出处
如果有关于PPIO的交流,可以通过下面的方式联系我:
加我微信,注意备注来源
wechat:omnigeeker
云存储服务平台,很精练吧
网络解释:云存储是在云计算(cloud computing)概念上延伸和发展出来的一个新的概念,是一种新兴的网络存储技术,是指通过集群应用、网络技术或分布式文件系统等功能,将网络中大量各种不同类型的存储设备通过应用软件集合起来协同工作,共同对外提供数据存储和业务访问功能的系统。
云存储可以简单的理解为将数据保存在一个第三方空间,随时取用和处理。云存储也可以说是一个以数据存储和管理为核心的云计算系统。云存储对用户来讲,不只是一个简单的设备,而是整个云存储系统的一种数据访问服务。
通过集群应用,网络技术等功能把网络中不同类型的存储设备通过应用软件集合起来工作。
云储存就是企业的公用空间(服务器),定期有人维护不用自己操心不怕数据丢失,但是数据都会在企业无保密可言,
就是网上的存储空间,不占自身内存,要用时联网下载
云存储是指通过集群应用、网格技术或分布式文件系统或类似网格计算等功能联合起来协同工作,并通过一定的应用软件或应用接口,对用户提供一定类型的存储服务和访问服务。
云存储的优势楼主有需要的话可以了解一下企业共享办公系统,可支持手机端、云端、公司服务器存储、为企业独立搭建维护企业网盘,从而实现文件归档存储、文档管理、协同办公等功能。
云存储就是将文件内存存储在云端的一种方式,不占用自己本身电脑或者手机的内存,海量存储轻松搞定,解决了很多的存储难与存储传输难的问题。
使用呆猫云盘的几大好处,企业存储资产更安全:1、使用呆猫远程桌面时可直接挂载云盘,轻松上传下载文件,支持在线修改文件。
2、项目资源统一集中管理,释放本地存储空间;支持弹性扩容,按需使用,降低本地硬件使用成本;
3、呆猫同一账号内存储互通,资源可异地共享,减少传输成本。
4、呆猫云盘与渲云网盘存储互通,使用渲云提交渲染任务时,内网同步,文件秒传,节省传输时间。
5、支持高并发读取资产文件,可同一账号最多可支持上千台机器同时读取云盘文件,提高工作效率。
6、高性能存储,百万级IOPS,超高算力助力设计行业发展。
7、云盘基于域控的安全策略,免受病毒攻击;提供多副本可靠性机制,即使机器出现故障,也不会引起数据丢失。
把你需要存储的数据放到网上,不占用你自己设备的内存,当你需要使用时从网上下载。这之间会产生数据流量。
云存储其实我们都经历过,2013年-2016年蓬勃发展,而后被玩坏的云盘,就是典型代表,虽然我们控制权益不多,只能上传下载,离线,共享,基本当作网络硬盘和交流工具使用,但却解决了人们的燃眉之急。我们现在部分手机上还有云端保存照片的功能。
实际的云存储并不是这么简单,引用一下网络:
云存储是建立在云计算的基础上,为云计算服务。对于我们似乎太深奥,但又息息相关,我们只需要知道它是好东西就行了。不单单能当作个人网络上的储存空间。
D. 计算机储存介质的发展史
个人电脑中的硬盘类存储设备发展史
原始的IBMPC,出现于1981年,当时它还不支持任何形式的固定式存储器(也就是今天我们说的‘硬盘’),因此在它的BIOS里没有任何关于识别与控制此类设备的代码。早期的DOS操作系统在目录总数上的限制也影响到了大容量存储设备的使用。考虑到最初的CPU仅为4.77MHz的主频和少得可怜的内存容量(16KB,可扩展到64KB),对那时的PC来说就连软驱都显得有些“奢侈”了。当时,软驱和装在软盘中的操作系统都还属于系统中的可选部分,大多数用户靠的还是磁带机和记录在ROM里的Basic程序来操作电脑。在一台PC机里使用固定式硬盘需要满足以下几个条件:提供一个独立的IRQ(中断请求号)为控制器预留一段I/O接口地址。提供一条DMA通道(这在今天已不再是必须的了)。得到BIOS中低级程序代码的支持。在总线上开出一个物理接口(通过扩展卡或主板板载来实现)。保证操作系统的支持。保障相应的供电和冷却条件。从DOS2开始,DOS得以在大容量存储设备中使用“子目录”这一概念,受此影响,终于开始有厂家推出面向PC机的硬盘设备了。当时它还是一种外置的,使用专用接口卡的特殊设备,电源也是由外部独立供给的(因为当时PC内置的63.5W电源光对机箱内部原有的设备供电都已经显得有些功率不足了)。使用它时,需要在PC里找出一个空余的8bit扩展槽,插上专用接口卡,并调整系统设置为该卡留出专用的IRQ和一定范围的I/O地址,然后在每次启动时,都要用软盘来引导系统时,以便向内存中加载带有读写控制代码的驱动程序,整个过程烦琐而复杂。但到了1983年的IBMPCXT(eXTended)问世时,有些机型就已经开始内置10MB的固定式硬盘了。IBM开始在机箱内预设硬盘控制接口,读写硬盘所需的程序代码也正式被作为主板上BIOS的扩展部分而保存到了接口卡的ROM上,不用在启动时一次次地向内存里加载了。并且,机箱内置的电源功率提高到了135W,这一性能已完全能满足机箱内置硬盘的供电要求了。XT规格中关于硬盘接口的部分规定如下:使用IRQ5。使用I/O地址320-32F。使用DMA3。相应程序代码记录于ROM地址C8000处。使用DOS2.0版本以上的操作系统。受此影响,更多的公司开始生产、销售类似的驱动器/接口卡套件。这些第三方生产的套件都带有各自不同的特色,有的提供了更大的容量、有的实现了更高的读写速度、还有的在接口控制卡上集成了软驱接口以节约主板上有限的扩展槽。进入1984年后,IBMPC/AT(AdvancedTechnology,先进技术)规格中关于硬盘子系统的部分得到了全面更新。程序控制代码开始被内建于主板搭载的BIOS中,从而不再依靠接口控制卡上所带的ROM芯片了。系统开始支持新增加的高位IRQ中断号,废除了对DMA通道的占用,并更改了硬盘接口所使用的I/O地址。AT规格中关于硬盘接口规定如下:使用IRQ14。使用I/O接口地址1F0-1F8。不再占用DMA通道。使用主板BIOS中内建的程序代码对硬盘接口进行控制。使用DOS2.0版本以上的操作系统。AT兼容机上的硬件设置信息都被保存在一块CMOS芯片上,所记录的内容受一块小型电池的供电来维持。因此即便机箱的电源被切断,所有设置仍旧会被保存下来。这一技术使PC机的用户不必再受一大堆跳线和拨动开关的困扰(在早期的电脑上,每件设备所占用的系统资源都是由用户手动更改跳线或拨动开关来进行分配的),且CMOS中所记录的内容可以运行一个简单的程序方便地进行更改,此举可算是提高电脑易用性方面的一大进步。原始的AT规格界定了从10MB到112MB共计14种容量的硬盘,在使用那些不合规格的硬盘时,仍需要在接口卡上搭载ROM芯片或是在系统启动时加载专用的设备驱动程序。在DOS4.0之前的操作系统不支持32MB以上的分区,哪怕是使用容量在100MB以上的硬盘时,也要把它切割成小区方能使用,这是因为“系统中的扇区总数不能超过16位(65,536)”这一传统限制。想使用大于32MB的分区,就必须使用特殊的分区工具,例如Ontrack’sDiskManager(即便是在今天,新版本DiskManager仍旧受到用户们的欢迎,它可是解决老主板不支持大容量硬盘的制胜法宝啊),当时有许多硬盘厂家都将DiskManager与自家的产品捆绑销售。但不幸的是,DiskManager与其他许多磁盘工具都发生了兼容性问题,因为在大多数工具软件下,用DiskManager所分的区都会被识别成了非DOS(Non-DOS)分区。因此,许多用户被迫选择了分割多个32MB以下小分区的办法来使用大容量硬盘,但这种办法也有局限性,因为DOS3.3之前的版本根本就不支持扩展分区这一概念……今天的用户当然不必理会这些限制,因为AT兼容机所支持的硬盘种类已增加为40多种,并且大多数BIOS都会提供一个可由用户自由设定各种硬盘参数的选项。您只要打开WINDOWS操作系统中的硬盘属性,就能看到“GENERICIDEDISKTYPE46/47”等字样(具体显示46还是47与系统设置有关,在BIOS里把硬盘类型设为USER时显示为TYPE46,而设为AUTO时系统属性里则显示TYPE47),这就是您的硬盘所属的“固有的硬盘类型”。当然,在WINDOWS环境下,用户根本用不着在意硬盘到底被设成了什么类型,因为随着操作系统本身的发展进步,WINDOWS本身不需要读取这一参数就能正确地读写硬盘了。不过,原始的AT规格中的部分条文在今天依旧是PC机的桎梏,例如一台PC机最多只能连接2个硬盘、BIOS/操作系统只能识别1024柱面、16磁头和63扇区/磁轨的限制等等(当然,这些限制现在都已被克服了)。人们已经采用了多种不同的办法来将那些“不合规格的”物理参数与系统所能支持的逻辑参数之间进行互相转换。
E. 当前存储器系统的发展概况
发展趋势
存储器的发展都具有更大、更小、更低的趋势,这在闪速存储器行业表现得尤为淋漓尽致。随着半导体制造工艺的发展,主流闪速存储器厂家采用0�18μm,甚至0.15μm的制造工艺。借助于先进工艺的优势,Flash Memory的容量可以更大:NOR技术将出现256Mb的器件,NAND和AND技术已经有1Gb的器件;同时芯片的封装尺寸更小:从最初DIP封装,到PSOP、SSOP、TSOP封装,再到BGA封装,Flash Memory已经变得非常纤细小巧;先进的工艺技术也决定了存储器的低电压的特性,从最初12V的编程电压,一步步下降到5V、3.3V、2�7V、1.8V单电压供电。这符合国际上低功耗的潮流,更促进了便携式产品的发展。
另一方面,新技术、新工艺也推动Flash Memory的位成本大幅度下降:采用NOR技术的Intel公司的28F128J3价格为25美元,NAND技术和AND技术的Flash Memory将突破1MB 1美元的价位,使其具有了取代传统磁盘存储器的潜质。
世界闪速存储器市场发展十分迅速,其规模接近DRAM市场的1/4,与DRAM和SRAM一起成为存储器市场的三大产品。Flash Memory的迅猛发展归因于资金和技术的投入,高性能低成本的新产品不断涌现,刺激了Flash Memory更广泛的应用,推动了行业的向前发展。
F. 存储技术发展历史
最早的外置存储器可以追溯到19世纪末。为了解决人口普查的需要,霍列瑞斯首先把穿孔纸带改造成穿孔卡片。
他把每个人所有的调查项目依次排列于一张卡片,然后根据调查结果在相应项目的位置上打孔。在以后的计算机系统里,用穿孔卡片输入数据的方法一直沿用到20世纪70年代,数据处理也发展成为电脑的主要功能之一。
2、磁带
UNIVAC-I第一次采用磁带机作外存储器,首先用奇偶校验方法和双重运算线路来提高系统的可靠性,并最先进行了自动编程的试验。此时这个磁带长达1200英寸、包含8个磁道,每英寸可存储128bits,每秒可记录12800个字符,容量也达到史无前例的184KB。从 此之后,磁带经历了迅速发展,后来广泛应用了录音、影像领域。
3、软盘(见过这玩意的一定是80后)
1967年 IBM公司推出世界上第一张“软盘”,直径32英寸。随着技术的发展,软盘的尺寸一直在减小,容量也在不断提升,大小从8英寸,减到到5.25英寸软盘,以及到后来的3.5英寸软盘,容量却从最早的81KB到后来的1.44MB。在80-90年代3.5英寸软盘达到了巅峰。直到CD-ROM、USB存储设备出现后,软盘销量才逐渐下滑。
4、CD
CD也就是我们常说的光盘、光盘,诞生于1982年,最早用于数字音频存储。1985年,飞利浦和索尼将其引入PC,当时称之为CD-ROM(只 读),后来又发展成CD-R(可读)。因为声频CD的巨大成功,今天这种媒体的用途已经扩大到进行数据储存,目的是数据存档和传递。
5、磁盘
第一台磁盘驱动器是由IBM于1956年生产,可存储5MB数据,总共使用了50个24英寸盘片。到1973年,IBM推出第一个现代“温彻斯特”磁盘驱动器3340,使用了密封组件、润滑主轴和小质量磁头。此后磁盘的容量一度提升MB到GB再到TB。
6、DVD
数字多功能光盘,简称DVD,是一种光盘存储器。起源于上世纪60年代,荷兰飞利浦公司的研究人员开始使用激光光束进行记录和重放信息的研究。1972年,他们的研究获得了成功,1978年投放市场。最初的产品就是大家所熟知的激光视盘(LD,Laser Vision Disc)系统。它们的直径多是120毫米左右。容量目前最大可到17.08GB。
7、闪存
浅谈存储器的进化历程
闪存(Flash Memory)是一种长寿命的非易失性(在断电情况下仍能保持所存储的数据信+息)的存储器。包含U盘、SD卡、CF卡、记忆棒等等种类。在1984年,东芝公司的发明人舛冈富士雄首先提出了快速闪存存储器(此处简称闪存)的概念。与传统电脑内存不同,闪存的特点是非易失性(也就是所存储的数据在主机掉电后不会丢失),其记录速度也非常快。Intel是世界上第一个生产闪存并将其投放市场的公司。到目前为止闪存形态多样,存储容量也不断扩展到256GB甚至更高。
随着存储器的更新换代,存储容量越来越大,读写速度也越来越快,企业级硬盘单盘容量已经达到10TB以上,目前使用的SSD固态硬盘,读速度达:3000+MB/s,写速度达:1700MB/s,用起来美滋滋啊。
G. 简述储存设备的发展趋势
市场由国外企业垄断,国内厂商奋力追赶
存储芯片是一个高度垄断的市场,三星、SK海力士、美光,合计占据全球DRAM市场95%左右的份额,NAND
Flash经过几十年的发展,已经形成了由三星、铠侠、西部数据、美光、SK海力士、英特尔六大原厂组成的稳定市场格局。
从中国存储芯片行业竞争格局来看,市场主要由国外存储芯片巨头领导,细分领域也落后于国外及台湾厂商(如NOR
Flash的旺宏/华邦等),但近年来国内厂商奋力追赶,已在部分领域实现突破,逐步缩小与国外原厂的差距。
其中,兆易创新位列NOR
Flash市场前三,聚辰股份在EEPROM芯片领域市占率全球第三,长江存储128层3DNAND存储芯片,直接跳过96层,加速赶超国外厂商先进技术。值得注意的是,兆易创新集团旗下还包含长鑫存储(CXMT),意味着兆易创新集团同时握有中国NOR
Flash与DRAM的自主研发能力,扮演中国半导体发展的重要角色。
——更多数据来请参考前瞻产业研究院《中国存储芯片行业市场需求与投资前景预测》。
H. 移动存储介质的发展趋势
趋势一:各种信息安全技术走向融合
在企业数据安全管理领域,一个最重要的趋势就是与各种安全技术的集成以及与各种安全产品的整合。移动存储介质的保密管理已经远远超越了设备单点安全的范畴,移动存储介质泄密防护作为企业信息失泄密防护的重要环节,需要结合企业现有组织结构,并能与现有的企业安全产品相整合,特别是与信息防护和控制系统(IPC)的整合,成为全面信息安全解决方案中的一部分。
一些厂家认识到基于软、硬件的保密防护的必要性、优点和不足,将单点设备安全和移动存储介质管理系统结合起来,并推出了软硬件结合的产品,这类产品的出现是技术融合的产物,它综合了以上两类产品的优点,实现了移动存储介质的数据安全、介质访问控制,介质使用环境安全、数据摆渡安全等多层次保护,对移动存储介质进行全生命周期管理。这类产品是迄今为止最全面的移动存储介质保密管理方案。
趋势二:基于安全芯片的验证和加密被越来越多的产品所采用
随着安全移动存储设备应用环境的复杂化,简单地依靠桌面操作系统的单向认证方式,无法抵挡假冒身份,数据拦截等恶意的窃密手段。基于安全芯片的身份认证方式,将大大提高移动存储设备数据访问的安全性。在安全移动存储设备芯片中运行独立的COS操作系统,通过USBKEY等安全通道进行身份认证,并由COS完成数据的动态加密。这种认证和保密技术是SIM卡、网上银行等应用认证技术的拓展。
趋势三:介质的分级保护成为产品的必要功能
国家保密部门在保密制度上做出了明确规定,对信息系统提出了分密级保护的要求,并规定不同密级实体之间的访问规则,比如高密级移动存储介质不能在低密级计算机上使用,高密级电子文件不能存储在低密级存储设备上。为满足保密部门这些要求,密级标识和基于主客体密级标识的访问控制成为移动存储介质保密管理的必备功能。
趋势四:安全数据摆渡成为热门技术
传统的数据摆渡威胁来自于移动存储介质在内外网之间的交叉使用。近几年,病毒(木马)通过移动存储介质摆渡来窃取用户文件,逐渐成为信息安全的焦点问题,如何有效地鉴别用户和病毒(木马)行为,通过有效的手段来保证移动存储介质在内外部网络之间进行数据摆渡的安全,成为移动存储介质保密管理越来越重要的课题。
趋势五:审计跟踪趋向多维度、立体化
移动存储介质的便携性决定它需要把传统的终端数据审核功能拓展到受控的环境之外,系统审计跟踪需要从简单一维空间发展到多维空间,实现基于身份、时间,地点、设备、不同安全模式等多维跟踪。人员操作审计,终端操作审计、设备使用审计,文件跟踪审计等构成了立体化的审计跟踪体系。
易产生的安全隐患
隐患1:使用人员安全意识不高,将带有与工作有关的资料、单位机密文件的移动存储介质随意外借或者麻痹大意而丢失,被他人将移动存储介质中的资料悉数窃取。
隐患2:移动存储介质在内外网之间直接交互使用,在接入互联网等网络时,容易被黑客利用高科技手段获取有用的个人或者公司信息,从而导致一些重要数据或信息的泄密,造成不必要的个人或者集体损失。
隐患3:由于移动介质的不规范使用,使其作为媒介将病毒从外网带入内网成为了可能,如银行内部发生了计算机病毒攻击内网导致网络瘫痪、系统崩溃和数据丢失。
隐患4:由于移动介质的方便性,常常随身携带,造成移动介质震动或跌落使其受损,从而造成数据和信息的丢失。
隐患5:目前市场假货很多,大多数都是扩容产品,实际容量与标识有很大的出入,往往使存储的资料丢失,所以,在购买时,一定要买正品。