【澳门威斯尼斯全部网址】消除数据中心热点的各种技术措施,数据中心技术措施

消除数据中心热点的各种技术措施,数据中心技术措施

Uptime
Institute的一项调查研究显示,高达十分之一的机柜运行在温度高于设备可靠性指导原则所推荐的允许范围。目前数据中心的机柜功率密度不断攀升,平均每台机柜的功率密度达到5kW甚至更高,因此,预计受热点困扰的机柜数量将与日俱增,很快超过上述比例。

如果热点迟迟无法消除,时间一久便可能带来严重的威胁,不仅危及IT设备的可靠性与性能,还会影响硬件制造商的保修或维护协议。因此,数据中心运维人员需尽早采取有效措施,避免出现此类风险。

澳门威斯尼斯全部网址 1

1. 什么是热点

许多IT专业人员经常查看热通道的温度,或在冷通道的错误位置查看温度,一旦发现温度过高,便自认为发现了热点。然后,他们会采取各种应对措施,但结果可能令人失望,非但未能消除热点,反而引发更多的热点。搞清究竟什么是热点、热点的根本起因以及如何识别热点对于根除热点至关重要。

澳门威斯尼斯全部网址,(1) 热点的定义

不能将数据中心内随机测得的任何高温点都视作热点。我们将热点定义为:当IT设备进风口的温度高于ASHRAETC9.9所推荐的期望值,即视作热点。一般机柜顶部的位置最容易产生热点。美国供热、制冷与空调工程师学会(ASHRAE)的热指南给出了服务器进风口处温度的推荐值及允许值范围。

(2) 热点产生的根源

数据中心所安装制冷装置的制冷量经常供大于求,特别是当制冷量完全由IT设备“铭牌”上的额定值所决定。倘若如此,那么为何还会出现热点?究其原因,热点的产生并非是制冷量不足或热负荷过大,而是制冷量未能得到充分的使用,换句话说,制冷量是充足的,但未能在需要制冷的区域提供充分的制冷量,这是由于缺乏气流管理所造成的。

图1是一个制冷量未被充分利用的例子,这是来自施耐德电气对一个真实案例的研究。图中显示了一个采用房间级制冷的传统典型数据中心,它的高架地板和吊顶用作送风和回风通道。机房空调先是以一定的压力和速度将冷风送入地板通道。然后,冷风通过高架地板中的穿孔地板(占机房空调气流的54%)和地板上线缆切口(占机房空调气流的46%)从地板通道进入IT空间(即泄漏气流)。

地板上线缆切口的泄漏气流会导致制冷量的损失,因为气流无法到达IT设备的前方,而是绕过了设备。事实上,这些气流并未带走任何热量,而是又绕回到制冷单元。

通过穿孔地板的大部分气流(占穿孔地板风量的96.29%)都流经IT机柜中的设备,但由于缺乏气流管理,并非全部气流都通过设备。一小部分冷风(占穿孔地板风量的3.71%)绕过IT设备又返回到制冷单元。与泄漏气流相同,这些旁通气流也会造成制冷量损失。同时,某些“亟需冷却”的IT设备无法获得足够的冷量,而不得不从机柜后部吸入设备排出的热风(占IT气流量的7.15%),这经常在“亟需冷却”的IT设备的前方造成热点。简而言之,用于减少气流泄漏、旁通与再循环的措施将有助于热点的消除。

(3) 如何识别热点

尽早发现热点对于防止IT设备过热和故障至关重要。我们可以通过以下三种方法发现热点:

  • 最简单、最经济的热点检测方法就是在数据中心内来回巡视,将手放于机柜前部,感觉温度。如果温度较高,则说明存在热点。这种方法的准确性最差,但对于极为明显的热点颇为有效。
  • 手动测量法较为准确,因为仪表可以更准确地测出温度值。此类仪表包括塑料温度贴条、枪式测温计和FLIR红外热像仪。手动测量被认为是一种经济且颇为有效的热点检测方法。尽管如今的红外热像仪售价高达300美元。数据中心运维人员可以利用这些仪表在服务器进风口和机柜的前门位置测量温度值以及测量服务器进风口和排风口间的温差(即服务器的ΔT),以便发现热点。
  • 自动监测被誉为热点识别的最佳方法,可以显示实时数据,说明服务器或数据中心的制冷状态。数据中心物理基础设施管理(DCIM)解决方案的自动监测装置可在系统达到某个阈值时,通过电子邮件或短消息向相关人员发出实时警报。借助DCIM软件,您可以按照自己的具体要求查看每台设备进风口和排风口的实际温度。施耐德电气的StruxureWareTM就是一款典型的数据中心基础设施管理软件,它可以利用从已安装的传感器网络收集到的实时数据来提供详实的三维热分布图。这种方法的精确度最高,但成本也最高。此外,IT设备一般配有内置热传感器,可以监控其热状态并利用IPMI协议报告热点。

其他有助于识别或预防潜在热点的建议包括利用计量型机柜式PDU识别并检查高密度(功率密度在5kW以上的)机柜——因为这些机柜出现热点的可能性更高。在决定进行移动、添加和更改机柜操作后或在数据中心设计阶段,利用CFD软件预测热点。CFD模拟技术可以提供机柜前部温度与压力云图以及机柜周围气流分布的详细三维分析,从而发现潜在热点。该工具的强大之处在于可以发现哪些区域的制冷量被浪费,哪些区域存在冷热气流混合,导致制冷量未被充分利用。

2. 评估所采取的传统措施

当发现热点,数据中心运维人员会采取各种应对措施。不过,并非所有的措施都会奏效。下文将介绍一些传统的应对措施,并阐述这些措施奏效/无效的原由。请注意大部分措施对于减少气流旁通或再循环根本无济于事。

(1) 调低制冷单元的温度设定值

调低送风温度有助于减少热点的说法貌似合乎逻辑,但在处理热点时实为不得已而为之的下下之策,因为这会降低整个制冷系统的效率和制冷量。这种方法的效果取决于机房空调的工作状态。如果制冷系统尚有多余容量(即工作负载不足100%,未达到制冷极限),那么调低温度设定值的做法具有积极的效果。对于靠近机房空调位置的热点,调低温度设定值可以降低热点处的温度。但倘若机房空调正以最大容量(100%满负载)运行,由于系统已达到制冷极限,调低温度设定值是没有效果的,所以无法消除热点。每个制冷系统在给定环境条件下都有固定的最大制冷容量。温度设定值调低后,“最大”制冷容量也随之降低。

(2) 在热通道中放置穿孔地板

有人认为这方法很好,这是因为他们不了解冷通道/热通道布局设计的优势,而将所有高温现象都视作热点。事实上,这种方法非但不能消除冷通道中的热点,还有可能引发更多热点。此外,在热通道中放置穿孔地板(即造成气流旁通)还会减少可用的制冷量。冷通道/热通道布局设计是最为行之有效的方法,因此热通道中根本不存在热点。由于冷通道是IT设备获取制冷量的“冷量容器”,对于IT设备而言,在冷通道内保持低温至关重要。在风冷型大型设备盛行初期,往往通过高架地板提供冷量,制冷单元根据回风温度进行控制。这种方法之所以奏效是因为室内空气温度均一,冷热气流充分混合。而如今,冷通道/热通道的布局设计中特意分别建立冷热两个温度区,形成回风温度的不均一。习惯于均一室内温度设计的人员可能会在热通道中放置穿孔地板,认为这样做就可以解决热点问题。

(3) 将机柜和穿孔地板紧靠制冷单元

有人会觉得将机柜和穿孔地板尽量紧靠制冷单元的做法不错,这是因为他们假定放置在距离制冷单元几英尺范围的机柜和穿孔地板能获得较多的制冷量。但事实上,效果恰恰相反。它可能导致IT设备出现供冷不足的现象,且无法持续消除热点。虽然这一做法可以帮助收集大部分排热,但不具有可预测性,并不是解决热点的高效做法。而这种做法导致IT设备出现供冷不足现象的原因在于,从制冷单元送出的气流具有很高的速度,导致该片区域内的静压很低。这也就是说,该片区域内安装的穿孔地板的供冷量很小,甚至可能会将房间内的气流吸入地板通道内。

确定高架地板下的气流是否存在问题有一个很简单的做法,那就是在穿孔地板上方放置一小纸片。如果纸片被吸向穿孔地板内,则应将穿孔地板更换为实心地板,以平衡高架地板下的通道压力。

(4) 将落地扇置于热点机柜前

有人认为此举可将气流直接集中在某个热点的前方,因此是一种消除热点的好方法。但是,这种方法只能在紧急状况下临时使用,如IT设备即将发生制冷中断时。这种做法可以降低设备的运行温度从而消除热点,但成本极高。落地扇的作用基本相当于一个气流混合器,将设备排出的热风与冷风混合,使气流的温度介于低送风温度和高排风温度之间。这还会增加通过设备的气流量。冷热风的混合还会降低制冷系统效率,造成增加除湿/加湿负担,制冷系统容量利用不充分,并可能因制冷冗余造成损失。此外,落地扇还会成为数据中心内的附加热源。

(5) 将气流吹过冰并送入冷通道

有人认为用冰降温是一种简单易行的好方法。虽然此方法有助于缓解热点问题,但冰融化后会变成水,可能溢出容器,造成严重后果。即便使用包装好的冰袋,这种方法也并非上策,因为还有很多更简单有效的方法。我们将在下文中详细讨论这些方法。

(6) 推入便携式制冷单元

有人认为这是一种解决问题的好方法,因为此举可将冷风直接集中在某个热点的前方。但这种方法只能在紧急状况下临时使用,如IT设备即将发生制冷中断时。遗憾的是,人们经常将这种方法用作永久性解决方案。便携式制冷单元一般是在失去制冷的情况下应急使用,因为数据中心工作人员可以很方便地将其推入到位。然而,对于如何妥善解决遍布数据中心的热点问题,下面所讨论的最佳方法才是首选的永久性解决方案,不但成本低廉而且非常奏效。

(7) 增加更多制冷单元

有人很自然地将热点问题与制冷量不足关联起来,因此认为增加制冷单元不失为一种理想方法。然而,在多数情况下,制冷量非常充足,只是由于缺乏气流管理,导致到达制冷需求点的制冷量未达到要求的水平。此外,这种方法并非万能,而且在解决热点问题的同时还会产生大量费用支出。Uptime
Institute的一项调查研究显示,虽然某些IT机房的制冷量已高达需求量的15倍,但机房中仍有7%到20%的机柜存在热点。究其原因,竟是送入的冷风绕过了IT设备的进风口。正确的解决方案是采用下面所讨论的最佳方法,然后再核定是否需要增加制冷单元。

3. 消除热点的新方法

以上方法司空见惯,但我们大都不推荐使用,因为这些方法对于造成热点的两个主要起因(即气流旁通与再循环)无能为力。如要杜绝气流旁通与再循环现象,必须将冷热气流完全分离,这样热点就根本不会存在。下面的前四种最佳实践之所以有效,正是因为这些实践解决了气流旁通或再循环问题,或同时解决了这两个问题。最后一个新方法只有在气流管理完全落实到位之后方可采用。

(1) 管理机柜气流

许多热点的出现是因为设备排出的热风在机柜内部或机柜周围发生再循环。因此,改善机柜气流管理对于解决热点至关重要。开放的机柜U空间和进出线口是造成热风再循环的主要原因,直接导致热点产生。改善机柜气流状况最简单、最经济有效的方法之一是利用盲板封堵未使用的机柜U空间,并在机柜的进出线口位置安装毛刷。企业应更新数据中心运行流程,规定凡有移动、添加和更改操作,便要安装盲板和毛刷。

某些类型的交换机和路由器采用侧向气流。如果在安装这些设备的数据中心内,机柜气流采用从前向后的传统模式,则交换机/路由器的排出的热风可能返回进风口并造成热点。

我们可以利用机柜侧向气流分配单元以可预测方式直接向侧向气流设备送入冷风,而不会造成热点。如果平均制冷总量充足,但在功率密度高于均值的机柜中产生热点,此时可以增加风机辅助型设备,通过改进气流状况和增加制冷量来改善制冷效果。风机辅助型设备设备可有效地从功率密度为3kW以下负载的相邻机柜“借用”气流以支持机柜负载。此方法可最大限度地降低机柜顶部和底部间的温差,并防止设备排出的热风再循环至机柜的进风口。所有排风设备在部署时必须十分小心,以确保来自相邻空间的气流不会造成相邻机柜温度过高。这些设备应使用UPS供电,避免设备在断电期间发生制冷中断。在高密度环境中,启动备用发动机期间也可能发生过热现象。

(2) 管理机房气流

在改善机柜气流管理后,下一个重要步骤是改善机房内的气流管理。首先,是密封高架地板中所有的开口。使用毛刷密封机柜后部和PDU下面的进线口。导致意外气流泄漏大都由这些开口造成。还可利用空气阻尼泡沫或软垫密封制冷单元周围的缝隙和其他地板空隙,在地板缺损的部位铺上实心地板,找出造成气流旁通的穿孔地板并改用实心地板。例如,如果一个空机柜前铺了穿孔地板,则应将其换为实心地板。此外,还可遵照侧栏中的操作程序对地板下的气流进行重新平衡。正确铺设地板并密封高架地板中的缝隙有助于回收利用损失的制冷量。

另一个导致热点问题的因素是机柜顶部上方和机柜行末端周围发生的冷热气流混合。解决这一问题的一个最佳实践是通过遏制通道和/或机柜气流将冷热气流分开。通道气流遏制不仅有助于消除热点,与传统的非气流遏制数据中心设计相比还更加节能。

可以用一个送风设备替换机柜的后门,从而将其变为一个主动式风管机柜。需注意这些设备将使机柜的总深度增加大约250mm,这可能会增大每两行相邻机柜之间的间距。通常情况下排入热通道的热风会被收集起来并向上推送,然后沿管道进入回风通道。此举可防止气流在机柜进行再循环并提升制冷系统的效率和制冷量。主动式独立垂直风管系统中的风扇可支持高达12kW的机柜功率密度,并能克服不佳通道压力或因服务器排风口线缆过度密集而导致的压降。但主动式垂直风管系统很容易为数据中心的其他区域带来意想不到的问题,因此在部署安装时应格外小心。在这些设备中必须使用盲板和机柜侧面板。主动式风管系统是耗电设备,因此需要监控和维护。

(3) 转移问题负载

如上所述,转移问题负载的方法是在发现“问题”负载之后将其转移到低密度机柜,从而消除热点。为机房配备制冷设备,让机房冷却到低于机柜潜在峰值的一个平均值,并将负载分摊到几个机柜,从而将任何负载超过设计平均值的机柜负载分流。请注意,将设备负载分摊到多个机柜会使机柜内出现大量未使用的垂直空间。必须用盲板将这些空间密封,防止制冷性能降低。如果可以拆除一台服务器或其它关键性设备,此举几乎毫无成本却可解决热点问题。

(4) 改变温湿度传感器的位置

在多数陈旧的数据中心,都是在机房空调回风气流中安装温度探测器,使得气流具有不可预测性。此举还会导致机房空调负载不均衡,从而使服务器进风口的温度发生波动。将温度探测器转移到送风气流中(这里的送风可控制而且可预测)可使IT设备进风口的温度更加平稳。如果与气流遏制方法结合使用,改变温度探测器的位置还能提高送风温度,从而减少制冷系统的能耗,同时无需担心送风温度是否会有大幅波动。

(5) 利用数据中心基础设施管理软件控制制冷单元的气流

有些系统可以根据IT机柜前方的温度控制单个机房的制冷单元。这些系统可使用模糊算法动态预测和调整制冷单元的风扇转速,并测算哪些制冷单元可关闭。通过控制进入数据中心的风量可以限制旁通气流量。Vigilent制冷系统就是这种系统的一个典型。

4. 结束语

热点会严重影响服务器的可靠性和性能,甚至会造成服务器的损坏。热点通常出现在IT设备的进风口位置,原因包括低效的气流管理,如冷气流泄漏(即气流旁通)和设备排出的热风再循环等问题。巡视感知温度、手动测量温度或自动监测是三种识别热点的主要方法。

数据中心运维人员为消除热点,采用了许多应对措施,但大都不尽人意,有的仅能作为应急情况使用,而有的却无济于事,有的甚至会使问题雪上加霜。消除热点的最佳实践包括机柜和机房的气流管理、气流遏制、问题设备转移、改变温度传感器位置以及通过数据中心物理基础设施管理软件控制制冷单元的气流。用这些方法解决热点问题不仅简单易行,而且成本低廉,行之有效。

Uptime
Institute的一项调查研究显示,高达十分之一的机柜运行在温度高于设备可靠性…

Uptime
Institute的一项调查研究显示,高达十分之一的机柜运行在温度高于设备可靠性指导原则所推荐的允许范围。目前数据中心的机柜功率密度不断攀升,平均每台机柜的功率密度达到5kW甚至更高,因此,预计受热点困扰的机柜数量将与日俱增,很快超过上述比例。

对于很多人来说,2017年是一个紧张忙碌的一年。而很多公司和部门可能会进入一年中业务最繁忙的时期。数据中心领域也是如此,2018年将会非常繁忙,特别是随着企业不断探索新技术(如物联网平台和设备、移动通信等)和升级基础设施,以满足这些要求很高的应用程序的需求。

消除结构工程质量通病的技术措施是非常重要的,只有了解通病的形成原因才能更好的解决实际问题,每个细节的处理都很关键。本网小编就消除结构工程质量通病的技术措施和大家说明一下。

如果热点迟迟无法消除,时间一久便可能带来严重的威胁,不仅危及IT设备的可靠性与性能,还会影响硬件制造商的保修或维护协议。因此,数据中心运维人员需尽早采取有效措施,避免出现此类风险。

企业致力通过新技术推动业务发展,推出新产品和服务,提高员工生产力,或降低成本,此外也有一些有关数据中心重要的监管指令将要颁布实施,企业都将在未来一年中关注和遭遇。

一、基坑开挖应遵循自上而下先深后浅分段分层依次进行的施工顺序,基坑浇筑砼垫层前应在基底设计标高上预留150~300mm厚的土不挖,待验槽通过后再下挖到位,砼垫层浇筑清除干净至基底,基槽长、宽、高必须控制在允许偏差范围之内,基坑施工质量须及时做好隐蔽记录和技术签证工作。

  不久前,一些软件工程师发现,运行一个应用程序的服务器是浪费的。因为这台服务器耗费了大量的资源却仅仅使用了一小部分的处理能力。目前,IT部门利用服务器虚拟化好处的理由之一就是减少数据中心的耗电量。遗憾的是,他们不知道促使他们采用虚拟化的同样的理由也影响到了他们数据中心的效率。为什么做服务器虚拟化这样的好事会对数据中心的效率产生负面影响呢?本文将帮助你理解这个潘多拉的盒子,并且提出一些避免这些问题的建议。

澳门威斯尼斯全部网址 2

澳门威斯尼斯全部网址 3

二、砂石垫层施工,每层虚铺搅拌均匀的砂石厚度应控制在200~250mm范围内以机械打夯机夯实3遍,然后取样试验,达到设计强度后,经设计部门、质监站认可后,方可进行第二层垫层施工,依此类推,施工至基础底标高。

  一台服务器有电源、内存、硬盘、风扇、板卡、处理器和其它消耗电源的组件。这些组件产生某种形式的有价值的计算能力。在服务器接通电源之后,所有这些组件立即要消耗电源,即使在没有任何计算任务的时候也是如此。这就是已知的固定损耗。服务器的固定损耗一般占服务器最大耗电量的33%至50%.随着处理器利用率的增加,电源的消耗也增加,但是,固定的损耗没有变化。遗憾的是没有采用虚拟化的服务器一般运行一个应用程序,处理器的平均利用率大约是5%至10%。这就意味着这台服务器的每千瓦小时的成本要远远高于运行10个应用程序/操作系统(也就是虚拟机)的主机服务器。

1. 什么是热点

欧盟的通用数据保护条例(GDPR)

三、基础做到防潮层后要立即组织基坑及室内土方回填,回填士应严格分层回填和夯实,每层虚铺厚度应控制在200~300mm范围之内,土方回填前须将其中积水排净,清理干净淤泥和杂物,基础两侧或四周土方回填应同时夯实,回填土料中不应有生活杂物,夯实应以机械打夯机为主,人工辅助进行施工。

  这种情况与数据中心发生的情况非常相似。一个数据中心在开始运行的第一天就是一个超过当前使用规模的以便应付未来的最大IT负荷。在那个最大负荷到达之前,这个数据中心运行较轻的IT负荷,不间断电源、变压器、冷冻器、风扇和空调都要消耗固定的电量。要记住的重要事情是这些固定的数据中心损耗占整个电费账单的很大一部分。IT管理员认识到,通过在一台主机上放置更多的虚拟机能够更有效率地运行服务器(也就是利用率更高)。要这样做,他们实际上是把更高的计算工作量增加到处理器上来提高服务器的效率。这是最有效地利用IT资源的极好的解决方案。但是,IT管理员没有认识到他们同时还减少了数据中心的能源效率。换句话说,通过虚拟化,大部分电费账单是与物理基础设施联系在一起的。数据中心在实施虚拟化之前一直以低容量运行(一般是工作负荷的50%至60%),在虚拟化之后,一些不担负任务的服务器拔掉电源之后,这种情况会更糟糕。

许多IT专业人员经常查看热通道的温度,或在冷通道的错误位置查看温度,一旦发现温度过高,便自认为发现了热点。然后,他们会采取各种应对措施,但结果可能令人失望,非但未能消除热点,反而引发更多的热点。搞清究竟什么是热点、热点的根本起因以及如何识别热点对于根除热点至关重要。

欧盟的通用数据保护条例
(GDPR)自2018年5月25日起生效,将影响企业的业务和数据中心的物理安全性。它完全更新了欧盟成员国以及任何与欧盟各国进行交易或持有公民(欧洲经济区公民)数据的公司必须存储安全和管理个人数据的方式。滥用和挪用数据的罚款是巨大的:高达企业全球收入的4%或2000万欧元,以更高者为准。

四、框架结构+0.000以下到基础顶面的短柱间,砼应按底层框架柱砼强度等级配料浇筑,该部分砼浇筑时宜单作一组砼试块标养到期进行试压,拆模后质量情况应连同基础砖一并进行隐蔽记录。

  IT管理员如何在虚拟化环境中提高数据中心基础设施的效率?两个最有效的改进方法是正确的尺寸和转换到紧靠热源的制冷。

(1) 热点的定义

欧盟的通用数据保护条例
(GDPR也关注物理安全。如果企业的数据中心的物理安全性被破坏,或设备被盗,那么很多数据很可能已经被盗。这将是一个数据泄露事件,不仅仅是丢失的笔记本电脑和遭遇黑客攻击,这样的事件需要在72小时内报告GDPR组织。在这个规定下,物理安全和访问控制都起着巨大的作用,所以要确保企业要将物理安全列入GDPR准备工作的一部分。

五、砖砌体砌筑时严禁干砖上墙,砌墙用砖应在砌筑前一天充分浇水湿润,实心、空心砖砌体宜用一块砖一铲灰一挤揉的砌筑方法,用铺浆法砌筑时,铺浆长度不得超过500mm,竖向灰缝严禁用水冲灌缝,应采用挤浆或加浆法,保证砂饱满。

  正确的尺寸包括用可升级的高效率不间断电源替换老式的单模块不间断电源。可升级的不间断电源系统总是高效率地运行,因为它安装了足够的电源模块支持这个IT工作量。例如,一个有61千瓦IT工作量的数据中心将得到7个10千瓦电源模块的支持。这些电源模块将嵌入到一个模块化的不间断电源设备中。如果这个IT工作量增加到75千瓦,这个不间断电源模块就要在不关机的情况下增加一个额外的10千瓦电源模块。转换到可升级的高效率不间断电源可以将运营电源成本减少50%至70%.

不能将数据中心内随机测得的任何高温点都视作热点。我们将热点定义为:当IT设备进风口的温度高于ASHRAETC9.9所推荐的期望值,即视作热点。一般机柜顶部的位置最容易产生热点。美国供热、制冷与空调工程师学会(ASHRAE)的热指南给出了服务器进风口处温度的推荐值及允许值范围。

生态设计指令

六、砌体中留置的临时过人洞口,不应超过1000×1500mm,洞口侧边离墙体交接处的距离不应小于500mm洞口两侧砖墙应留直槎,并沿墙高每500mm设2?6(370墙设3?6)拉结筋,拉结筋伸出长度不少于500mm,洞口顶部应设钢筋砼过梁,洞口补砌时,应分二次完成。

  转换到紧靠热源的制冷包括使用模块化队列空调关闭或者替换部分或者全部传统的基于环境的空调。传统的制冷设备需要超大尺寸的风扇电动机以便克服冷空气在进入IT设备前走过的长距离。现在,在活地板下面经常发现一些障碍,恰当地冷却一个高密度机架的服务器是非常困难的。另一方面,基于队列的冷却设备按照服务器机架同样的队列进行安装。这就意味着风扇电动机要小得多,因为它们只需要向附近只有几英尺远的IT设备送风。传统的冷却设备中的风扇一般以固定的速度运转,不管IT的工作量如何。这就好像是你以每分钟6000转的速度开车,而不管驾驶的情况如何,更不用说要经常加油了。模块化基于队列的空调配置了与IT工作量匹配的可变速度的风扇,提供了正确选择数据中心尺寸的另一种方法,减少了电费账单。通过紧靠热源的制冷和使用变速风扇电动机,基于队列的冷却系统能够使风扇电动机的耗电量减少大约65%.

(2) 热点产生的根源

2018年1月1日是实施欧盟生态设计指令(欧盟指令2009/125 /
EC)的第一阶段的最后期限。这是在2009年首次推出的,为使用能源或与能源使用有关的产品制定了强制性要求框架。这意味着从这个日期起,在欧盟范围内生产销售不符合该指令规定的新标准的产品将是违法的。当企业从制造商处订购产品时,即使在截止日期之前订购的产品,也将有责任确保其符合标准,但是如果从2018年1月1日起发货,则必须遵守这条指令。

七、砌筑砖墙时,应双面带线并设皮数杆控制砌筑质量。对”窜皮”墙和通缝超过允许皮数的墙应进行返工处理,非整砖在砌体中的数量和使用部位要合理并宜分散使用,承重墙最上一层砖应用整砖丁砌,框架中隔墙和填充墙的顶面与上部结构接触处应用侧砖或立砖斜砌挤紧,空心砖砌体在不够整砖处可用普通实心砖补砌,窗间墙应整砖砌筑。

  模块化可升级基础设施随着IT工作量的增加而增加。使用这种基础设施的数据中心能够把总电费账单节省60%以上(或者减少虚拟化的应用规模)。除了节省能源之外,采用模块化不间断电源系统和队列内冷却设备有两个主要的好处:有针对性的可用性和改善的容量以及改变管理。

数据中心所安装制冷装置的制冷量经常供大于求,特别是当制冷量完全由IT设备“铭牌”上的额定值所决定。倘若如此,那么为何还会出现热点?究其原因,热点的产生并非是制冷量不足或热负荷过大,而是制冷量未能得到充分的使用,换句话说,制冷量是充足的,但未能在需要制冷的区域提供充分的制冷量,这是由于缺乏气流管理所造成的。

虽然大多数设计师和制造商都会争先恐后地确保他们提前做好准备,但仍然有些公司可能仍然存有旧货,他们希望在今年年底前摆脱困境。企业需要确保其购买和使用的设备的规格是否正在发生变化,不要被不符合设计指令的产品提供的折扣所吸引。

八、砖砌体中的构造柱竖向钢筋位置应保持上、下一致,不错位,不得随意弯曲挪位,马牙搓应先退后进,进退尺寸均为60mm,进槎与退槎间隔距离宜为500mm(包括空砖砌体),墙中拉结筋伸入构造柱中长度应不小于200mm,构造柱箍筋加密部位其间距应均匀一致,浇筑砼时应振捣密实。构造柱(或墙体)与阳台栏板扶手交接处应预留同规格同数量及同位置的锚拉钢筋与扶手栏板中的水平筋相连。

  在一台主机服务器上的多个虚拟机将极大地提高主机服务器的重要性,因为一个电源或者热事件能够破坏整个虚拟化的机架(假如没有现成的备份策略的话)。采用模块化电源和冷却设备,单个机架可以有针对性地使用N+1不间断电源或者N+1队列内冷却设备,达到具体的可用性水平。这种有针对性的可用性将节省提供不必要的高电源和冷却的成本,减少不需要的IT机架和设备。

图1是一个制冷量未被充分利用的例子,这是来自施耐德电气对一个真实案例的研究。图中显示了一个采用房间级制冷的传统典型数据中心,它的高架地板和吊顶用作送风和回风通道。机房空调先是以一定的压力和速度将冷风送入地板通道。然后,冷风通过高架地板中的穿孔地板(占机房空调气流的54%)和地板上线缆切口(占机房空调气流的46%)从地板通道进入IT空间(即泄漏气流)。

ISO 50001能源管理体系

九、冷轧带肋钢筋必须按规定送检。强度、机械性能指标合格后方可使用。严重锈蚀的不得使用。

  采用模块化不间断电源系统和队列内冷却设备的最后一个好处是显著改善容量和改变管理。想想你上一次必须要安装一台新的服务器并且要设法搞清楚这台服务器应该安装到哪一个机架上的情况。头脑中出现的问题是“哪一个机架有足够的电源和冷却容量可以插入一台新的服务器?”,或者“我会通过在机架中放入额外的服务器破坏为具体机架提供的冷却冗余度吗?”或者“额外增加的服务器会使这个机架过热吗?”这些问题老式的数据中心是不可能回答的,因为地板下面冷却的不可预见的性质和缺少测量电源的设备。

地板上线缆切口的泄漏气流会导致制冷量的损失,因为气流无法到达IT设备的前方,而是绕过了设备。事实上,这些气流并未带走任何热量,而是又绕回到制冷单元。

ISO
50001能源管理体系是建立、实施、维护,以及改善企业能源管理体系的行业标准框架,可以持续改进能源绩效,包括能源效率,能源安全和能源消耗。虽然不是新的标准,并且自2011年以来,目前的版本已经到位,正在开发的新版本将在2018年6月发布(原本到2019年才会发布)。ISO
50001对于帮助企业降低成本,实现自身的碳排放和能源效率目标具有极其重要的价值,这些目标在环境、政治和社会方面不断增长。确保考虑不断变化的标准,这样企业在评估准备工作中的努力不会白费。

十、阳台、雨蓬等悬挑构件应设置数量适宜的铁支架,架立上层受力筋,使其在浇筑砼时不至向下移位,梁板柱受力筋保护层厚度应用设置一定数量的标准水泥砂浆垫块来保证。

  专门用于机架的具体区域的模块化电源系统能够向集中的管理系统实时报告电源容量的状态。同样,由于空气路经短和有温度监视功能,队列内冷却设备按照设计也拥有可预见性。当这些系统的实时信息发送到一个集中的容量和改变管理应用程序时,就消除了安装一台新服务器的猜测工作和浪费的时间。可预见性的电源和冷却基础设施还允许一个容量管理系统实施“如果出现什么情况将采取什么行动”的分析,以便理解在做任何事情之前变化产生的影响。

通过穿孔地板的大部分气流(占穿孔地板风量的96.29%)都流经IT机柜中的设备,但由于缺乏气流管理,并非全部气流都通过设备。一小部分冷风(占穿孔地板风量的3.71%)绕过IT设备又返回到制冷单元。与泄漏气流相同,这些旁通气流也会造成制冷量损失。同时,某些“亟需冷却”的IT设备无法获得足够的冷量,而不得不从机柜后部吸入设备排出的热风(占IT气流量的7.15%),这经常在“亟需冷却”的IT设备的前方造成热点。简而言之,用于减少气流泄漏、旁通与再循环的措施将有助于热点的消除。

对变化做好准备

十一、砼浇筑前木模应浇水湿润,模板拼缝要严,并应将模板内垃圾、泥土和钢筋上的水泥浆、油污等及时清除干净,浇筑施工缝处砼时应先将该处凿毛浇水冲洗干净。

  对于虚拟化的所有这些好处(包括减少的电费账单),它展示了一些挑战,迫使IT人员很好地理解自己的电源和冷却系统,以保证主机服务器需要的更高的可用性。通过采用可升级的模块化电源和冷却系统,这项工作被极大地简化了,同时,利用全面的权利以减少数据中心的电费账单。

(3) 如何识别热点

企业必须遵守的合规性很容易对其产生负面的影响,而这是有原因的,在上述所有情况下,都可以使企业的业务更加安全和高效。无论企业是进入一个忙碌或平静的一年,企业需要在2018年对这些变化做好准备。

十二、楼板砼浇注后,必须保证浇水养护7天在48小时内不允许在楼面上堆砖,及堆放其他建筑材料。

原文出处:

尽早发现热点对于防止IT设备过热和故障至关重要。我们可以通过以下三种方法发现热点:

【编辑推荐】

十三、砼结构拆模后,若出现超过标准要求的峰窝、孔洞、露筋、夹渣等质量缺陷。应及时作检查记录,并拿出处理意见进行认真的补强处理,经设计、质监站认可后,方可进行补强处理。

  • 最简单、最经济的热点检测方法就是在数据中心内来回巡视,将手放于机柜前部,感觉温度。如果温度较高,则说明存在热点。这种方法的准确性最差,但对于极为明显的热点颇为有效。
  • 手动测量法较为准确,因为仪表可以更准确地测出温度值。此类仪表包括塑料温度贴条、枪式测温计和FLIR红外热像仪。手动测量被认为是一种经济且颇为有效的热点检测方法。尽管如今的红外热像仪售价高达300美元。数据中心运维人员可以利用这些仪表在服务器进风口和机柜的前门位置测量温度值以及测量服务器进风口和排风口间的温差(即服务器的ΔT),以便发现热点。
  • 自动监测被誉为热点识别的最佳方法,可以显示实时数据,说明服务器或数据中心的制冷状态。数据中心物理基础设施管理(DCIM)解决方案的自动监测装置可在系统达到某个阈值时,通过电子邮件或短消息向相关人员发出实时警报。借助DCIM软件,您可以按照自己的具体要求查看每台设备进风口和排风口的实际温度。施耐德电气的StruxureWareTM就是一款典型的数据中心基础设施管理软件,它可以利用从已安装的传感器网络收集到的实时数据来提供详实的三维热分布图。这种方法的精确度最高,但成本也最高。此外,IT设备一般配有内置热传感器,可以监控其热状态并利用IPMI协议报告热点。

十四、土建结构要严格与水电安装同步配合施工,各种预留预埋管道和孔槽,应在浇筑砼前和砌筑墙体时一次安装定位,或预留准确,严禁事后凿孔挖槽,破坏结构质量。

其他有助于识别或预防潜在热点的建议包括利用计量型机柜式PDU识别并检查高密度(功率密度在5kW以上的)机柜——因为这些机柜出现热点的可能性更高。在决定进行移动、添加和更改机柜操作后或在数据中心设计阶段,利用CFD软件预测热点。CFD模拟技术可以提供机柜前部温度与压力云图以及机柜周围气流分布的详细三维分析,从而发现潜在热点。该工具的强大之处在于可以发现哪些区域的制冷量被浪费,哪些区域存在冷热气流混合,导致制冷量未被充分利用。

十五、砼和砂浆搅拌应严格计量投料,留置试块严禁吃”小灶”,应在现场搅拌机傍取样,现场制作,标准养护,试块组数应符合规范要求和施工实际,市质监部门将不定期地进行抽查。

2. 评估所采取的传统措施

想知道更多关于“消除结构工程质量通病的技术措施”等建筑施工方面的信息,可以在本网建设通进行搜索。

当发现热点,数据中心运维人员会采取各种应对措施。不过,并非所有的措施都会奏效。下文将介绍一些传统的应对措施,并阐述这些措施奏效/无效的原由。请注意大部分措施对于减少气流旁通或再循环根本无济于事。

(1) 调低制冷单元的温度设定值

调低送风温度有助于减少热点的说法貌似合乎逻辑,但在处理热点时实为不得已而为之的下下之策,因为这会降低整个制冷系统的效率和制冷量。这种方法的效果取决于机房空调的工作状态。如果制冷系统尚有多余容量(即工作负载不足100%,未达到制冷极限),那么调低温度设定值的做法具有积极的效果。对于靠近机房空调位置的热点,调低温度设定值可以降低热点处的温度。但倘若机房空调正以最大容量(100%满负载)运行,由于系统已达到制冷极限,调低温度设定值是没有效果的,所以无法消除热点。每个制冷系统在给定环境条件下都有固定的最大制冷容量。温度设定值调低后,“最大”制冷容量也随之降低。

(2) 在热通道中放置穿孔地板

有人认为这方法很好,这是因为他们不了解冷通道/热通道布局设计的优势,而将所有高温现象都视作热点。事实上,这种方法非但不能消除冷通道中的热点,还有可能引发更多热点。此外,在热通道中放置穿孔地板(即造成气流旁通)还会减少可用的制冷量。冷通道/热通道布局设计是最为行之有效的方法,因此热通道中根本不存在热点。由于冷通道是IT设备获取制冷量的“冷量容器”,对于IT设备而言,在冷通道内保持低温至关重要。在风冷型大型设备盛行初期,往往通过高架地板提供冷量,制冷单元根据回风温度进行控制。这种方法之所以奏效是因为室内空气温度均一,冷热气流充分混合。而如今,冷通道/热通道的布局设计中特意分别建立冷热两个温度区,形成回风温度的不均一。习惯于均一室内温度设计的人员可能会在热通道中放置穿孔地板,认为这样做就可以解决热点问题。

(3) 将机柜和穿孔地板紧靠制冷单元

有人会觉得将机柜和穿孔地板尽量紧靠制冷单元的做法不错,这是因为他们假定放置在距离制冷单元几英尺范围的机柜和穿孔地板能获得较多的制冷量。但事实上,效果恰恰相反。它可能导致IT设备出现供冷不足的现象,且无法持续消除热点。虽然这一做法可以帮助收集大部分排热,但不具有可预测性,并不是解决热点的高效做法。而这种做法导致IT设备出现供冷不足现象的原因在于,从制冷单元送出的气流具有很高的速度,导致该片区域内的静压很低。这也就是说,该片区域内安装的穿孔地板的供冷量很小,甚至可能会将房间内的气流吸入地板通道内。

确定高架地板下的气流是否存在问题有一个很简单的做法,那就是在穿孔地板上方放置一小纸片。如果纸片被吸向穿孔地板内,则应将穿孔地板更换为实心地板,以平衡高架地板下的通道压力。

(4) 将落地扇置于热点机柜前

有人认为此举可将气流直接集中在某个热点的前方,因此是一种消除热点的好方法。但是,这种方法只能在紧急状况下临时使用,如IT设备即将发生制冷中断时。这种做法可以降低设备的运行温度从而消除热点,但成本极高。落地扇的作用基本相当于一个气流混合器,将设备排出的热风与冷风混合,使气流的温度介于低送风温度和高排风温度之间。这还会增加通过设备的气流量。冷热风的混合还会降低制冷系统效率,造成增加除湿/加湿负担,制冷系统容量利用不充分,并可能因制冷冗余造成损失。此外,落地扇还会成为数据中心内的附加热源。

(5) 将气流吹过冰并送入冷通道

有人认为用冰降温是一种简单易行的好方法。虽然此方法有助于缓解热点问题,但冰融化后会变成水,可能溢出容器,造成严重后果。即便使用包装好的冰袋,这种方法也并非上策,因为还有很多更简单有效的方法。我们将在下文中详细讨论这些方法。

(6) 推入便携式制冷单元

有人认为这是一种解决问题的好方法,因为此举可将冷风直接集中在某个热点的前方。但这种方法只能在紧急状况下临时使用,如IT设备即将发生制冷中断时。遗憾的是,人们经常将这种方法用作永久性解决方案。便携式制冷单元一般是在失去制冷的情况下应急使用,因为数据中心工作人员可以很方便地将其推入到位。然而,对于如何妥善解决遍布数据中心的热点问题,下面所讨论的最佳方法才是首选的永久性解决方案,不但成本低廉而且非常奏效。

(7) 增加更多制冷单元

有人很自然地将热点问题与制冷量不足关联起来,因此认为增加制冷单元不失为一种理想方法。然而,在多数情况下,制冷量非常充足,只是由于缺乏气流管理,导致到达制冷需求点的制冷量未达到要求的水平。此外,这种方法并非万能,而且在解决热点问题的同时还会产生大量费用支出。Uptime
Institute的一项调查研究显示,虽然某些IT机房的制冷量已高达需求量的15倍,但机房中仍有7%到20%的机柜存在热点。究其原因,竟是送入的冷风绕过了IT设备的进风口。正确的解决方案是采用下面所讨论的最佳方法,然后再核定是否需要增加制冷单元。

3. 消除热点的新方法

以上方法司空见惯,但我们大都不推荐使用,因为这些方法对于造成热点的两个主要起因(即气流旁通与再循环)无能为力。如要杜绝气流旁通与再循环现象,必须将冷热气流完全分离,这样热点就根本不会存在。下面的前四种最佳实践之所以有效,正是因为这些实践解决了气流旁通或再循环问题,或同时解决了这两个问题。最后一个新方法只有在气流管理完全落实到位之后方可采用。

(1) 管理机柜气流

许多热点的出现是因为设备排出的热风在机柜内部或机柜周围发生再循环。因此,改善机柜气流管理对于解决热点至关重要。开放的机柜U空间和进出线口是造成热风再循环的主要原因,直接导致热点产生。改善机柜气流状况最简单、最经济有效的方法之一是利用盲板封堵未使用的机柜U空间,并在机柜的进出线口位置安装毛刷。企业应更新数据中心运行流程,规定凡有移动、添加和更改操作,便要安装盲板和毛刷。

某些类型的交换机和路由器采用侧向气流。如果在安装这些设备的数据中心内,机柜气流采用从前向后的传统模式,则交换机/路由器的排出的热风可能返回进风口并造成热点。

我们可以利用机柜侧向气流分配单元以可预测方式直接向侧向气流设备送入冷风,而不会造成热点。如果平均制冷总量充足,但在功率密度高于均值的机柜中产生热点,此时可以增加风机辅助型设备,通过改进气流状况和增加制冷量来改善制冷效果。风机辅助型设备设备可有效地从功率密度为3kW以下负载的相邻机柜“借用”气流以支持机柜负载。此方法可最大限度地降低机柜顶部和底部间的温差,并防止设备排出的热风再循环至机柜的进风口。所有排风设备在部署时必须十分小心,以确保来自相邻空间的气流不会造成相邻机柜温度过高。这些设备应使用UPS供电,避免设备在断电期间发生制冷中断。在高密度环境中,启动备用发动机期间也可能发生过热现象。

(2) 管理机房气流

在改善机柜气流管理后,下一个重要步骤是改善机房内的气流管理。首先,是密封高架地板中所有的开口。使用毛刷密封机柜后部和PDU下面的进线口。导致意外气流泄漏大都由这些开口造成。还可利用空气阻尼泡沫或软垫密封制冷单元周围的缝隙和其他地板空隙,在地板缺损的部位铺上实心地板,找出造成气流旁通的穿孔地板并改用实心地板。例如,如果一个空机柜前铺了穿孔地板,则应将其换为实心地板。此外,还可遵照侧栏中的操作程序对地板下的气流进行重新平衡。正确铺设地板并密封高架地板中的缝隙有助于回收利用损失的制冷量。

另一个导致热点问题的因素是机柜顶部上方和机柜行末端周围发生的冷热气流混合。解决这一问题的一个最佳实践是通过遏制通道和/或机柜气流将冷热气流分开。通道气流遏制不仅有助于消除热点,与传统的非气流遏制数据中心设计相比还更加节能。

可以用一个送风设备替换机柜的后门,从而将其变为一个主动式风管机柜。需注意这些设备将使机柜的总深度增加大约250mm,这可能会增大每两行相邻机柜之间的间距。通常情况下排入热通道的热风会被收集起来并向上推送,然后沿管道进入回风通道。此举可防止气流在机柜进行再循环并提升制冷系统的效率和制冷量。主动式独立垂直风管系统中的风扇可支持高达12kW的机柜功率密度,并能克服不佳通道压力或因服务器排风口线缆过度密集而导致的压降。但主动式垂直风管系统很容易为数据中心的其他区域带来意想不到的问题,因此在部署安装时应格外小心。在这些设备中必须使用盲板和机柜侧面板。主动式风管系统是耗电设备,因此需要监控和维护。

(3) 转移问题负载

如上所述,转移问题负载的方法是在发现“问题”负载之后将其转移到低密度机柜,从而消除热点。为机房配备制冷设备,让机房冷却到低于机柜潜在峰值的一个平均值,并将负载分摊到几个机柜,从而将任何负载超过设计平均值的机柜负载分流。请注意,将设备负载分摊到多个机柜会使机柜内出现大量未使用的垂直空间。必须用盲板将这些空间密封,防止制冷性能降低。如果可以拆除一台服务器或其它关键性设备,此举几乎毫无成本却可解决热点问题。

(4) 改变温湿度传感器的位置

在多数陈旧的数据中心,都是在机房空调回风气流中安装温度探测器,使得气流具有不可预测性。此举还会导致机房空调负载不均衡,从而使服务器进风口的温度发生波动。将温度探测器转移到送风气流中(这里的送风可控制而且可预测)可使IT设备进风口的温度更加平稳。如果与气流遏制方法结合使用,改变温度探测器的位置还能提高送风温度,从而减少制冷系统的能耗,同时无需担心送风温度是否会有大幅波动。

(5) 利用数据中心基础设施管理软件控制制冷单元的气流

有些系统可以根据IT机柜前方的温度控制单个机房的制冷单元。这些系统可使用模糊算法动态预测和调整制冷单元的风扇转速,并测算哪些制冷单元可关闭。通过控制进入数据中心的风量可以限制旁通气流量。Vigilent制冷系统就是这种系统的一个典型。

4. 结束语

热点会严重影响服务器的可靠性和性能,甚至会造成服务器的损坏。热点通常出现在IT设备的进风口位置,原因包括低效的气流管理,如冷气流泄漏(即气流旁通)和设备排出的热风再循环等问题。巡视感知温度、手动测量温度或自动监测是三种识别热点的主要方法。

数据中心运维人员为消除热点,采用了许多应对措施,但大都不尽人意,有的仅能作为应急情况使用,而有的却无济于事,有的甚至会使问题雪上加霜。消除热点的最佳实践包括机柜和机房的气流管理、气流遏制、问题设备转移、改变温度传感器位置以及通过数据中心物理基础设施管理软件控制制冷单元的气流。用这些方法解决热点问题不仅简单易行,而且成本低廉,行之有效。

【编辑推荐】

发表评论

电子邮件地址不会被公开。 必填项已用*标注