机房空调能耗超高的原因及解决方案

[摘要] 精细空调机组的配置量超出了现有机房设备需求而发生机房冷却才能过量的现象,这都会导致机房全体能耗之居高不下。如何处理这个问题,下降空调能耗? 看看下文。

机房空调能耗超高的原因及解决方案

技能领域:

近年来跟着高热密度核算机机房建造的开展,一方面大都机房仍沿袭原机房局址进行扩容而成; 另一方面也有的机房是沿袭原始规划而未能够进行主设备扩容。这就会呈现运用原精细空调机组已跟不上机房建造开展的需求而发生机房冷却才能不足量的现象; 或是精细空调机组的配置量超出了现有机房设备需求而发生机房冷却才能过量的现象,这都会导致机房全体能耗之居高不下。

据 IDC 猜测,到 2008 年 IT 采购成本将与动力成本持平。另一方面,数据中心的能耗中,冷却又占了能耗的 60% 到 70%。在接下来的几年里,世界上一半左右的数据中心将受电力和空间的束缚,能耗会占到一个 IT 部分 1 / 3 的预算。故在数据动力与冷却问题会议上,Gartner 有限公司的副总 MichaelBell 说:“在 2008 年全世界一半的数据中心将由于低效的动力供给和冷却才能不能到达高密度设备要求而过时。”并有机构猜测,在 2000 年全球第一波数据中心浪潮中建造的数据中心将有 50% 会在 2008 年开始重建。

技能背景使用范围:

机房精细空调机组使用于电子核算机机房是依照现行国家标准 A 级电子信息体系机房进行规划的,其运转工况为:23±2℃/50±10%Rh; 关于核算机和数据处理机房用单元式空气调节机现行国家标准查验工况为 23±1℃/55±4%Rh。

而现有机房空调生产厂家所提供的机型其室内机回风口工况参数点的规划多为 24℃/50%Rh,在此工况下进行机房选型规划的直接胀大式空调压缩机 COP 值和整机 SHR(显热比)值均较大,故机房建造进行空调规划时多依照上述工况参数点进行选型。可是若对应到 22℃/50%Rh 的工况参数点的规划会呈现:传统直膨式空调机的压缩机 COP 值同比下降约 7~8%、而整机显冷量比照原总冷量亦会下降 8~19.5%(根据公开的机房空调厂家数据表,直接胀大式空调不同的下送风机型显冷量同比会下降到原总冷量的 92%~80.5%); 若是选用冷冻水式空调机组整机的显冷量比照原显冷量会下降 13.2%~16.6%。然而机房空调的负荷绝大部分是核算机类高热密度负荷,其悉数为显热负荷。那么比照回风参数 24℃/50%Rh 的工况所规划出来的空调机组,当运转于 22℃/50%Rh 工况下同比添加的能耗大约是 15%~25%(即为了给显热负荷降温而使得直接胀大式机房空调机组压缩机运转时刻的同比延伸量; 或意味着冷冻水式机房空调机组之外部冷冻水主机供给冷冻水时刻的延伸量也即相应能耗的增加量)。若持续调低空调机运转工况参数设定点,对应的能耗会呈非线性的增加; 而且运转工况参数设定的过低会导致机房空气温度低于露点温度而呈现不可逆转的湿度下降,当超越相对湿度设定下限后机房空调会主动执行加湿功用,由于电极式加湿器喷出的水雾会抵消掉机房空调很多的制冷量,届时机房空调的耗能会呈指数性的上升。

现在核算机机房的建造模式,一般是沿袭原数据机房局址进行简单的扩容而成。由于机房早期建造的时候现已对机柜和空调进行了布局,到达空调机组气流安排对当时的机柜负荷是最佳的规划; 那么现在越是高集成度 (更高的热密度) 的核算机服务器出场越会被安排在远离空调机组的方位上。

这样势必会形成在新的核算机服务器开机运转时呈现此区域温度超标的现象,故而必须将空调机组设定的回风温度 24℃调低。一般情况是在刀片服务器出场后至少调低空调机组设定温度 2℃。对此形成的能耗就现已超越空调出厂标准的 20% 以上了。然而跟着刀片服务器的高度集成化,其散热量现已到达了每个机架 30KW 之巨; 乃至有的正常运转机房在服务器机柜出风口测量到了 47℃的高温。最后机房面临着核算机服务器等高热密度负荷的不断出场,只能一味的调低空调机的设定温度值,致使机房内温度低得像个冷库相同。

据研究机构 UptimeInstitute 在 2006 年对美国 19 个数据中心的研究中发现,数据中心的过度冷却 (overcooling) 差不多到达实践所需求的 2 倍。目前 85% 以上的数据中心机房存在过度制冷问题,对应的机房空调机组耗能也会比规划工况添加能耗 50% 以上,终究形成机房空调居高不下的高额运转费用。

另一方面设备发热量又与设备类型、类型,机房安置有着很大关系。据对一些机房做过的调研,发现有的设备发热量并不大。例如某电信纽带大楼在室外 30℃、室内 21℃干球温度时的实践冷负荷目标只有 66W/m2,其间设备发热很小。机房冷负荷远远小于常规核算目标的 165~222W/m2。[1]而现实中有的机房占地上积到达了 396 平方米,而真正需求机房空调的服务器和配线架负荷区域却仅有 60 平方米。

以上机房的建造,或许是根据电子核算机机房规划规范 (GB50174-93) 按下列办法进行主机房面积确认的:

1. 当核算机体系设备已选型时,可按下式核算:

A=K∑S(2.2.2-1)

式中 A – 核算机主机房运用面积(m2);

K– 系数,取值为 5~7;

S– 核算机体系及辅佐设备的投影面积(m2)。

2. 当核算机体系的设备尚未选型时,可按下式核算:

A=KN(2.2.2-1)

式中 K – 单台设备占用面积,可取 4.5~5.5(m2v/ 台);

N– 核算机主机房内一切设备的总台数。

所以会发生上述机房内精细空调的配置远大于实践核算机设备的需求之问题的存在。

由于机房空调无法感知机房的服务器或通信网络设备具体需求量,故其制冷才能之过量会导致空调机组压缩机频繁启动,发生振动,终究也会形成机房空调高额的运转费用。

跟着数据中心 (IDC) 机房选用服务器虚拟化技能的很多使用,机房内高热密度负荷势必会呈现散热门向要害服务器转移的现象,届时或许会呈现机房内只呈现少数的高热密度区域,其微环境需求会更加严峻。

现有技能处理方案:

据绿色网格 (GreenGrid) 安排的有关专家所给出以下的主张。以辅导怎样进步数据中心能效。

其间心理念是更好地冷却过热区域,而不浪费能量去冷却现已冷却的区域。

具体辅导方针:

a)冷却通道:热通道规划是为了促进有用活动一起将冷热空气流分开,并恰当安置空气调节设备。

b)为服务器运转选择动力经济模式。

c)选用动态核算流软件 (computationalfluiddynamics) 对数据中心的空气流进行模拟,并测验不同的地上通风口方位和核算空间空气调节单元方位。最优冷却体系可使数据中心动力开销节省 25%。

d)无论负荷大还是小,冷却体系的能耗是固定的。很好地使用将使其固定能耗下降。在保证增加的情况下,将生产量与数据中心设备的冷却需求相匹配。

e)数据中心过热门的直接冷却与冷却体系紧密相关,但留意不要冷却已冷却区域。将冷却空气的通道减短。使数据中心规划为服务器和存储器机架的空气流与房间空气流相匹配,这样就不会将电能浪费在从相反方向来抽取空气。

f)选用刀片服务器和存储器虚拟化来削减需求动力冷却体系进行冷却的物理设备的数量。这一起也削减了数据中心所占用的空间。

g)选用更多的高能效照明设备(安装控制器或定时器),这能够直接节省照明费用,并节省冷却费用(由于照明设备的运用会导致其自身过热)。

h)改进机架内部的空气流,使其穿过通道,这能够经过配置盲板隔离空机架空间来实现。

i)当选用专业工程办法将冷却用水直接输送到机架以将电力体系和隔离管道等的风险最小化。

j)选用多核芯片来整合服务器能够削减所需冷却服务器的数量。购买更多的高效芯片并进行动力分级以削减待机功率,这样可削减冷却需求。

k)假如或许,选用空气调节设备运转于冬天经济模式。

l)查看个别的空气调节单元是否相协调而且未进行相反作业。

总归其理念是削减全体的冷却需求并考虑包含冷却体系的全体开销。应该直接针对机架内部的过热门进行冷却,一起将热空气排出由通风口排出。

以上就是修建界暖通频道为您带来“机房空调能耗超高的原因及处理方案”内容,修建界暖通频道共享暖通规划相关内容,寻觅修建之美,探究修建之路,欢迎重视我们~

正文完
更多资讯,敬请关注「走访建筑」微信公众号😘
post-qrcode