计算能力的浪费

       计算机的性能是越来越高,软件对硬件的要求也是越来越变态,软件也更加庞大,以前dos时代软件都是以K计算,前些年几百M是比较大的软件了,现在 的软件小于1G,别人都不相信他这软件能做什么事!

      软件对硬件要求高,硬件更新换代就比较快,觉得Windows2000刚出来的时候,我用P3 450加128M内在的机器跑的很好,还是Server版,现在估计不行了,是不是硬件旧了变慢了,还是Windows2000的几个sp打的机器跑不了 了?  现在WindowsXP、Vista、7等,旧机器是跑不起来的,有的机器cpu挺好,内在贼小,操作员成天抱怨慢,要求更新机器,造成计算能力的浪费。

      我所接触的一些企业,服务器有几个房间,少说有3、400台,24小时运行,并且服务器还在不断增加中,企业信息中心为了管理方便,基本上新项目都会上新 服务器,因为多个系统共用服务器会带来管理上的麻烦。而我知道一些系统计算量是很小的(一般的管理系统计算量都不大),cpu长期稳定在1%,有时还要搞 个双机容错。现在的新服务器计算能力只发挥了1%,然后用3、4年后就基本又淘汰了。要我说的话,按现在的Intel架构服务器的能力,10个系统合在一 起都没问题,或者不用新购机器,3年前的服务器也能满足要求。Windows平台的管理系统多是IIS加SqlServer,以前 SqlServer2000随便找台机器都飞快,而现在SqlServer2005/2005再好的硬件都觉得慢,其实轻量级的关系数据库多的是,如 PostgreSQL、Mysql、Interbase、Firebird等,又小又快,功能还强大,足以满足需要。巨型而臃肿的软件也造成了计算能力的 浪费。

       现在服务器基本成了资源消耗大户,听说Google的服务器农场要选在电费便宜的地方,而有些企业员工喜欢晚上不关电脑,计算能力不足和过剩,浪费到何时 啊!
原文地址:https://www.cnblogs.com/81/p/1683978.html