海底数据存储提升
‘壹’ 为什么微软要把数据中心设在水下数据中心制冷有多花钱
从数据分析来看数据中心无疑是“能耗大户”。一个超大型数据中心每年的耗电量近亿度。2018年全国数据中心消耗的总电量为1608.89亿度电,比上海市2018年全社会用电量(1567亿度)还要多,相当于三峡大坝全年的发电量。
微软、谷歌、阿里巴巴、腾讯等互联网巨头构建绿色高效的数据中心,作为绿色节能技术的行业推动者和践行者,已经不仅仅是企业基于自身经营需要,同时也是企业乃至整个行业都需要肩负的重大社会责任。以上个人浅见,欢迎批评指正。认同我的看法,请点个赞再走,感谢!喜欢我的,请关注我,再次感谢!
‘贰’ 掏空大山、沉入海底互联网大厂的服务器为什么要这么处理
全球的互联网公司里最重要的莫过于它们的服务器,一旦服务器发生故障后果不堪设想,在我们的认知里这些公司的服务器一定是放在非常重要的地方。但其实全球很多公司的服务器存放的地方,可能令网友们大吃一惊, 例如微软的服务器是放在大海里,阿里巴巴将自家服务器放在了着名景区千岛湖的湖底,苹果的服务器则是放在了我国贵州,腾讯、华为同样将服务器放在贵州大山里。
2014年微软开始着手将服务器放置于水下的计划 ,同年开始在海里做投放实验,他们将300台电脑的服务器,放置进一个重约十七吨的密封舱内,该密封舱是全钢制的。而且密封舱内同时还装载着100多个传感器,岸上的工作人员随时可以通过这些传感器感知到水压和温度,便于及时发现并处理特殊情况,一切就绪后微软的团队将这个密封舱投入加州海岸的近海区。
第一次试验结束后,为证明海底数据中心是可行的, 2019年微软又进行了第二次海底数据试验, 这次的实验规模更大,装载的电脑服务器更多,一共有864台电脑服务器,相比较第一次的钢制密封罐,这次试用的密封设备更像一艘小型潜艇,它的长度超过十米,而这次的实验周期为期五年。
同样将服务器放在水里的还有阿里巴巴,阿里将自家服务器藏在了千岛湖里面,去过 旅游 的游客应该有听导游介绍过吧。服务器在运行过程中会散发大量热气,此时必须做好散热,不然可能会有烧坏的风险。而为了保护环境,减少碳排放,阿里便将服务器放在了湖底。千岛湖地区平均温度在18摄氏度左右,湖水更是能让数据中心节省8成以上的制冷能源。如此以来一年便可减少1万吨的碳排放
华为也有类似储存服务器的举动,与微软将服务器放进海下不同的是, 华为是将服务器存放在山洞里 。2017年时候华为在贵州贵安新区的七星湖数据中心,开始着手建立自己的服务器中心, 据悉,该数据中心第一期项目就已经有40万平方米,可以存放服务器约为60万个,华为在这里共存放了170多个的服务器。 这样大规模的项目几乎将一座山掏空,未来可能还会继续扩大规模。
为什么这些互联网公司,会将这么重要的服务器放在这些看似“不靠谱”的地方呢?特别服务器还非常怕水,微软不怕服务器进水吗?其实原因很简单,服务器怕水同样怕热,普通电脑机房的温度就会让人受不了,何况是这些互联网公司的数据中心。所以散热一直是让这些 科技 公司头疼的问题,特别是夏天,为这么庞大的服务器组织冷散热也是一笔很大的支出。
据相关数据表明,如华为微软这种大型互联网公司,每天为数据中心散热所需要的电力成本,就占所有成本的20%以上,其中又有40%以上是用于制冷消耗。 全球的互联网为公司的数据中心,每年用在为服务器散热的电量,是全球每年用电的2%。 这个数据已经非常庞大了,相当于一些国家一年的用电量了。所以如何更加节能减排为服务器散热,是许多互联网公司都在积极寻求的,微软使用的“水冷”就是一个很好的解决方案。
据微软表示将水下数据中心放进海底105天后,他们发现这个密封舱的温度会随着海水的流动而消散,目前效果还算不错,但密封舱附近的海水会有少许上升,约为正常海水温度的千分之一。不过要是大规模使用这种方式可能还有些困难,毕竟微软的数据中心可不止几百台电脑,而且放进海底维护起来可能也有诸多不便。
像华为选择把服务器存放在山洞中的方案,维护起来就更方便一点,唯一问题就是前期挖隧道需要一些投入。而且贵州气温受山地影响,常年温度都维持在20多度不冷不热,而且夏天的夜晚山里温度非常低,山洞内的温度就要更低一些。 另外,贵州的用电非常便宜,一度电仅0.35元左右,而且在贵州的水力发电非常成熟,可以减少火力发电的污染。
不仅是华为,例如苹果,腾讯也在这个地区有自己的数据中心,就连国家大数据中心也是在这个地方。这里存放着全球一半以上的国家管理数据,同时贵州也是全球最大的数据中心。另外,如亚马逊,360等公司,他们将数据中心存放于宁夏地区,目的也很简单,就是利用当地的自然气候达到为服务器降温的目的。
‘叁’ 海量数据存储
存储技术经历了单个磁盘、磁带、RAID到网络存储系统的发展历程。网络存储技术就是将网络技术和I/O技术集成起来,利用网络的寻址能力、即插即用的连接性、灵活性,存储的高性能和高效率,提供基于网络的数据存储和共享服务。在超大数据量的存储管理、扩展性方面具有明显的优势。
典型的网络存储技术有网络附加存储NAS(Network Attached Storage)和存储区域网SAN(Storage Area Networks)两种。
1)NAS技术是网络技术在存储领域的延伸和发展。它直接将存储设备挂在网上,有良好的共享性、开放性。缺点是与LAN共同用物理网络,易形成拥塞,而影响性能。特别是在数据备份时,性能较低,影响在企业存储应用中的地位。
2)SAN技术是以数据存储为中心,使用光纤通道连接高速网络存储的体系结构。即将数据存储作为网络上的一个区域独立出来。在高度的设备和数据共享基础上,减轻网络和服务器的负担。因光纤通道的存储网和LAN分开,使性能得到很大的提高,而且还提供了很高的可靠性和强大的连续业务处理能力。在SAN中系统的扩展、数据迁移、数据本地备份、远程数据容灾数据备份和数据管理等都比较方便,整个SAN成为一个统一管理的存储池(Storage Pool)。SAN存储设备之间通过专用通道进行通信,不占用服务器的资源。因此非常适合超大量数据的存储,成为网络存储的主流。
3)存储虚拟化技术是将系统中各种异构的存储设备映射为一个单一的存储资源,对用户完全透明,达到互操作性的目的和利用已有的硬件资源,把SAN内部的各种异构的存储资源统一成一个单一视图的存储池,可根据用户的需要方便地切割、分配。从而保持已有的投资,减少总体成本,提高存储效率。
存储虚拟化包括3个层次结构:基于服务器的虚拟化存储、基于存储设备的虚拟化存储和基于网络的虚拟化存储。
1)基于服务器的虚拟化存储由逻辑管理软件在主机/服务器上完成。经过虚拟化的存储空间可跨越多个异构的磁盘阵列,具有高度的稳定性和开放性,实现容易、简便。但对异构环境和分散管理不太适应。
2)基于存储设备的虚拟化存储,因一些高端磁盘阵列本身具有智能化管理,可以实现同一阵列,供不同主机分享。其结构性能可达到最优。但实现起来价格昂贵,可操作性差。
3)基于网络的虚拟化存储,通过使用专用的存储管理服务器和相应的虚拟化软件,实现多个主机/服务器对多个异构存储设备之间进行访问,达到不同主机和存储之间真正的互连和共享,成为虚拟存储的主要形式。根据不同结构可分为基于专用服务器和基于存储路由器两种方式。①基于专用服务器的虚拟化,是用一台服务器专用于提供系统的虚拟化功能。根据网络拓扑结构和专用服务器的具体功能,其虚拟化结构有对称和非对称两种方式。在对称结构中数据的传输与元数据访问使用同一通路。实现简单,对服务器和存储设备的影响小,对异构环境的适应性强。缺点是专用服务器可能成为系统性能的瓶颈,影响SAN的扩展。在非对称结构中,数据的传输与元数据访问使用不同通路。应用服务器的I/O命令先通过命令通路传送到专用服务器,获取元数据和传输数据视图后,再通过数据通路得到所需的数据。与对称结构相比,提高了存储系统的性能,增加了扩展能力。②基于存储路由器的SAN虚拟化,存储路由器是一种智能化设备,既具有路由器的功能,又针对I/O进行专门优化。它部署在存储路由器上,多个存储路由器保存着整个存储系统中的元数据多个副本,并通过一定的更新策略保持一致性。这种结构中,因存储路由器具有强大的协议功能,所以具有更多的优势。能充分利用存储资源,保护投资。能实现软硬件隔离,并辅有大量的自动化工具,提高了虚拟服务器的安全性,降低对技术人员的需求和成本。
‘肆’ 为什么微软要把数据中心设在水下
是因为微软公司为了减少散热成本。大家都知道,数据中心的运转会散发大量热量,若不及时散热就就极其可能烧毁服务器。但是增加散热设备又会加大电力使用,从而增加成本,于是微软的工程师们想出了一些“奇特”的方法——将数据中心存放于水下。数据中心散热量很大,尤其是数据高峰时,会加大服务器的运行压力,同时也会加速工作,产生热量也较多,如果不能及时降温,就会有烧坏的风险。
微软公司表示,今后会将更多的数据中心建设在水下,并广泛进行落实。不得不说,微软真是一个非常有想法的科技创新型公司!微软能有今天的成就,离不开每一位研发人员和工作人员的辛勤付出。不过想到以后的海洋中,不仅有海底隧道,海底电缆、还会有数据中心,是不是会感觉很神奇。