从节能的数据中心的硬件和软件设计的角度(一)

从节能的数据中心的硬件和软件设计的角度(一)

-PMC高级顾问、前Facebook存储架构设计师、

OCP创始人之中的一个Per BrasherCCCC演讲实录-

   此次演讲流程例如以下。

首先讨论关注数据中心效率的原因及其提升效率的原始动力所在。第二步讨论影响效率的主要构成部件,这些部件对效率的贡献大概有多少。以及如何对每一个部件的效率进行优化和提高。第三个方面是展望如何进一步减少TCO成本。当中将涉及更先进的数据保护机制。

接着会对存储的各种新模式进行一定展望,最后做一个总结。

     下表总结了OCP的设计理念,其中把数据中心的每个构成部件及其在总成本其中的权重做了一个罗列,并就针对每个部件的设计理念进行优化採取的措施及对设备投资和运维成本带来的比例影响,也做了一定的罗列。得出的结论是通过OCP的设计理念,经过加权平均在设备投资节省了23%的成本。运维方面节省了33%

     下图看上去比較复杂,展现了数据中心运作中的环境因素,主要指温度和湿度。传统的数据中心通常环境狭小、要求严格、温度、湿度均很低。

这种环境意味着在空调散热方面须要比較大的投入,从无论是设备、还是空调制冷所消耗的能源等多方面综合考虑。现阶段,大家意识到,通过把工作条件放宽松。宽松到A2范围,就能够大大提高数据中心的能量使用效率。图中蓝线体现了OCP眼下支撑的范围。通过散热和空调设计的改变。实现PUE1.07的能效。

假设不熟悉PUE,简单来说,所指的是总体数据能耗除以IT设备能耗的比例,该比值越接近1越好。

     这意味着什么呢?能量效率的提升直接体如今电费节省上面。

每一瓦的功耗。每年大概耗费1.9美金,一兆瓦级的数据中心假设每一兆瓦把PUE1.9下降到1.07。就意味着节省了100多万美金。对于某些能耗超过一兆瓦量级的数据中心而言,这个数字很可观。

     接下来从三方面展开来谈——从大到小。

首先是数据中心机房设施(包含空调)的设计,这一方面可以带来的能源节约。

第二方面是电力分布的系统,怎样配电,这一方面的一些设计改进。第三方面则具体阐述机架和server。

     空调怎么设计呢?外部空气进入机房。假设空气温度太低。会通过循环将现有数据中心的热气与之混合,再经过一些过滤器。

假设气温太高,则经过固化的装置,通过水的气化带走一些热量。再把经过冷却的气体送到数据中心IT设备。经过IT设备之后,气体的温度会升高。或者将其回收再循环。或者直接输送到机房外面。

     下图左边展现了传统的配电方式,一般是480伏的交流电进来。经过ACDC转换和UPS,再转换回交流电。然后通过PEU送到机架上面。每一步转换事实上都存在能量损耗。到达server时总损耗大概是27%左右。右图则展示出。在OCP设计中。直接把480伏配电送到机架,当中由更高效的OCP电源和48V DS做保护。总能量损耗为7.6%。当中包含了电源本身的损耗。过去的PUE评測中,一般server内部的电源损耗并没有考虑在内。

因此,上述提升不仅在数量上很可观,还远远超出了最早的设计效果。

     以下这三张图代表了三代OCPserver的演进。第一代和第二代的机箱设计全然一致,第一代主板非常大,仅仅有一块;第二代则放了两块主板;第三代改变了机箱的设计,但主板跟第二代还是一样。

演进的过程中,OCP对供应链的保护意识非常强。尽量复用了已有的设计,这样一来,供应商就不必针对每次规范改变而又一次投入开发和測试成本。

     下图中比較了传统的数据中心设计和OCP设计带来的成本影响。

红色代表的是传统设计,绿色代表OCP设计。由图可见,两者相比,OCP大致可以节省33%的成本。增加的蓝色部分,则显示出採用PMC倡导的新技术,可以为OCP带来进一步的节约和改进。

应该注意到的是,在存储方面,进一步的成本下降空间还是很巨大。

     

版权声明:本文博主原创文章。博客,未经同意不得转载。

原文地址:https://www.cnblogs.com/blfshiye/p/4912560.html