IBM:新一代数据中心

sunjj70

贡献于2014-06-15

字数:0 关键词:

演讲主题:新一代数据中心建设 姓名: 盛蔚晓 Title: IT架构师 主要内容 1. 数据中心发展趋势 2. 绿色创新数据中心 3. IBM成功案例 IDC的最新关于数据中心的调查 ‡ 澳大利亚、香港和新加坡等更加成熟的市场对IT硬件的投资已经放缓,最终用户正寻求更高 的可用性,并更加关注能耗和冷却等问题。 ‡ 在中国大陆、印度和越南等新兴市场中,快速成长的硬件投资正在迫使最终用户优先考虑实 施更好的数据中心建设和管理部署和自动控制工具,以便能够管理不断增加的复杂性。 ‡ 过去几年中才在亚太区开始的虚拟化已在成熟市场和新兴市场获得同等重视。 Google的新数据中心 ‡ 选址:俄勒冈州达勒斯市(Dalles)哥伦比亚河畔, ‡ 这里的电价是全美最低廉的 ‡ 政府还提供为期15年的税收优惠及一条连接谷歌总部的光缆环线 ‡ 有水坝,水坝发电厂可以提供充足的电力 ‡ 水坝旁边可建设大型冷却塔,以解决数据中心超级计算机的散热问题。 ‡ 中心总共拥有8180的机架,而每个机架拥有40块Intel双核处理器。8180*80=654400 。 65万 颗核心的运算能力 ‡ 投资6亿美金,雇用100-200名员工 数据中心的发展趋势_设计规范和标准 •Uptime Institute: 数据中心性能要求_ Uptime Institute TIA/EIA-942 数据中心的电信基础设施标准 _2005年4月 ‡ 集现有相关标准和规范之长,弥补了以前数据中心设计和建设阶段的信息隔阂问题 ‡ 全面地考虑电力,HVAC,消防,房门,建筑,安全等多种应用在电信基础设施和空间内的共 存 ‡ 门宽至少 1m(3ft),门高 2.13m(7ft),没有门槛,外开 ‡ 机房净高2.6m(8.5ft) ‡ 地板承重(distribute floor loading) 最少7.2KPA(150lbf/ft2)(4.8) ‡ 建议12KPA(250lbf/ft2) TIA/EIA-942 数据中心的电信基础设施标准 主要内容 1. 数据中心发展趋势 2. 绿色创新数据中心 3. IBM成功案例 电力和制冷的费用已经超过了服务器的 费用– IDC 2006 0% 5% 10% 15% 20% 25% 30% 35% None of the above Poor location Excessive facility cost Insufficient raised floor Insufficient power Excessive heat 访谈问题:您的数据中心设施最严重的问 题是什么? Gartner 2006 $0 $10 $20 $30 $40 $50 $60 $70 $80 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 Installed base (M units) 2 4 6 8 10 12 14 16 18 Spending (US$B) New server spending Power and cooling 高强度计算能力以及电力消耗所占的投资比例已经发生了改变 “Power and cooling will be a top 3 issue with all CIO’s in the next 6-12 months” “用电和冷却将是所有CIO在未来6至12个月最为关注的3个问题之一” Michael Bell – Gartner Group 计算机世界携手IBM的市场调查结果分析 ¾有62%的被访企业认为其数据中心面临着问题; ¾在CIO们认为其数据中心最为亟待解决的问题中,23%的被访企业认为是数据中心供电和 散热能力不足,限制了其IT 基础设施扩展,或无法部署高密度计算设备;有19% 的被访企 业认为,其数据中心的耗电量太大,费用无法负担;另有17%的被访问企业认为,机房温 度过高,影响了计算设备的稳定运行; ¾受访的企业中有43% 的CIO 明确表示,了解并认同“绿色数据中心”。 ¾其中43% 的被访问CIO 认为,绿色数据中心可能降低IT 使用成本;另有27% 的被访企业 CIO 认为,绿色数据中心将可能提高IT 运营效率;值得注意的是,有19% 的企业表示,对 于绿色数据中心能给企业运营带来的改善表示“不清楚或不确定”。 ¾43% 的被访对象认为,其对绿色数据中心的建设需求并不明确,因此对“绿色数据中心”是 否真正能达成其要求心存疑虑;其次,有20% 的被访对象认为,构建绿色数据中心的最大 障碍是没有足够的资金预算;另有18% 的被访对象认为,购买节能环保产品并不合算。 • 全球4百万平方米数据中心的成功经验 – Designed and built over 30 million square feet of raised floor for clients – Own or manage 8 million square feet in 6 continents with over 2.3 million corporate users • 一流的专业技术和全球支持服务 – Built 5 of Japan’s top 14 green buildings – Built the largest data center in Egypt – Built a super computing data center in Barcelona • 不断提供最新的IBM解决方案到数据中心 – Expect to double computing capacity in existing data centers with half the number of computers 绿色数据中心的趋势 ƒ 高耗电密度和迅速增长 ƒ 每平方米能源消耗10倍甚至100倍于普通办公大楼 ƒ 对供电系统的潜在影响巨大 ƒ 2005年美国数据中心消耗约为450亿度电 ƒ 以目前的发展速度,能源需求可能在5年内倍增 IBM有绿色数据中心的建设和运维经验 绿色创新工程——Project ‘Big Green’ • IBM每年投入10亿美元,用于: – 加速“绿色”技术和服务的开发和推广 – 联合IBM的硬件、软件、服务、研发和融资租凭团队帮助客户应对能源危机 – 建立一个由IBM在全球范围内近1,000个节能专家组成的“绿色”团队 • 重申IBM公司长期以来的承诺: – 从1990年到2005年不间断的节能努力,实现了40%二氧化碳排放量的减少和 约2亿5千万美元的能源节省 – 每年1亿美元的设施投资,履行循环再造方面的最佳实践 – 在2010年前将IBM全球数据中心的计算能力提高一倍,但不增加能源消耗, 实现每年节省用电50亿度电. . . 相当于“光明之城(the City of Lights)”— —巴黎的用电量 • “绿色”方案对客户的意义: – 对于一个每年电费达260万美元、占地2500平方米的典型数据中心来讲,电 费有望节省一半 – 相当于马路上减少1,300汽车的二氧化碳排放量 能源的效率可以对总体拥有成本起相当明显的影响 一个机柜以3KW用电量,每度电一元人民币计算, 每月的电费是2160元。每年该机柜电费是2.6万。 一个机房,以50个机柜计算,150KW,一年的IT设 备电费是130万 Data source: Creating Energy-Efficient Data Centers, , U.S. Department of Energy , Data Center Facilities and Engineering Conference , May 18, 2007 数据中心 IT设备 55% 45% 供电和冷却. . . 能源在数据中心是如何被消耗的呢? 服务器硬件 70% 30% 电源、内存、风扇、 主板、硬盘 . . . 处理器 服务器负荷 80% 20% 空闲 资源使用率 数据中心的用电分配 PUE = [数据中心总用电消耗] . [IT设备能源消耗] 理想的 PUE = 1.6 目标 PUE = 2.0 常见的 PUE = 2.4 to 2.8 甚至更高 *As utility rates continue to increase, poor efficiency ever more costly Source : The Uptime Institute 这个数据中心的能源效率为30% 数据中心的能源效率系数PUE 数据中心能源效率系数 (PUE) Diagnose 掌握实际数据以了解能 源使用情况和发掘提高 能源效率的机会 Build 规划、建设和改 进数据中心,提 高数据中心的能 源效率 Cool Virtualize 实施虚拟化和其它的创 新技术 Manage & Measure 通过用电管理软 件获得对能源使 用的有效控制 绿色数据中 心5步曲 使用新型的冷却技 术和方案 ƒ 绿色数据中心是高能效和环保的数据中心 ƒ IBM的客户正体现以下的绿色数据中心成 效: – 45%用电和冷却节省 – 20%服务器和存储使用率提升 – 最高可达80%数据中心空间节省 5步实现绿色数据中心 18 诊断: 基于 Web 的工具,提供自我能效评估 • 评估过程 • 有关能源使用的 12 个问题 • 三个主要分类 – 对与功耗相关的问题的认识 – 快速战术手段的部署 – 战略数据中心规划的范围 • 针对改善领域的报告 •IBM 服务建议 可以在 web 上免费使用自我能效评估,突 出能效改善的机会。 www.ibm.com/itsolutions/optimizeit/cost_efficiency//energy_efficiency/services.html 19 数据中心能效评估——您需要的事实 电力使用 35 30 25 20 15 10 5 0 制冷/散热塔 信息技术 照明交换机/发生器不间断电源配电单元计算机房空调加湿器 散热系统 电力和建筑系统 •IBM 提供全面、基于事实的分析,针对您的整个 数据中心排列战术计划优先级,以提高效率、降 低成本。 预计每年节约的电力 0 500,000 1,000,000 1,500,000 2,000,000 2,500,000 3,000,000 能源成本(美元) 设施 IT 升级基础设施优化现有基础设施当前实践 产品收益 ƒ 节能:基础设施升级可以带来 15-40% 的 节约 ƒ 建议包括: - 适当规模的电力和散热系统 - 使用高效的 UPS 系统 - 实施替代性散热解决方案 占数据中心总用电量的百分比 • 快速全面地测量计算中心温度数据 • 帮助优化气流 数据中心调整理想的基础工具 诊断工具——Mobile Measuring Tool 21 关于 IT 关于设施 关于行业 设计 / 建立 • 规模经济 —— 300,000 平方英尺 • 功耗密度 —— 90 瓦 / 平方英尺 (模块化可达到 140) • 最佳实践设备布局 • 没有单点故障 •Tier 3 设计 运营 • 虚拟化的高利用率工作负载 • 需求模型可以满足未来的需求 • 三维空间和电源计费 • 很低的 Green Grid PUE 度量 • 集成的电源管理软件 • 水冷式设备 • 很低的长期 TCO 冷却 • 自然冷却超过 50% • 冷却器抽水机/空气处理设备可 变速驱动 • DC CRAC 发动机 电力 • 模块化电源密度扩展选项 其它建筑系统 • 能源效率照明 • 高“R” 值绝缘 LEED 认证目标 能源管理计划(70 万美元) • 电力公司折扣 • 政府鼓励 • 可再生能源证书 环境计划 • 风力发电(1,000 MW) • 减少 CO2 排放 建立 —— 数据中心扩展,IBM Boulder 增加 72,000 平方英尺,实现一个高度坚固可靠的数据中心,并将能源效率作为一个设计点 建立 —— 数据中心扩展,IBM Boulder 传统机房面临的挑战--热热热 9短循环导致冷却不足 9送风距离过长导致远端机柜进气不足 9回风距离过长导致冷热通道气流混合降低空调效率 9机柜上下冷热不均 9越往后越热 设备运行环境需求分析 • 设备运行环境需求分析 • 如:生产服务器的温度需求 – 最佳的温度范围--绿色区域 – 允许的温度范围—蓝色区域 0% 20% 40% 60% 80% 100% 40 50 60 70 80 40 50 60 70 4.4 10 15.5 21 26.7 32.2 37.7 43.3(C) 22 45% 温度 相对湿度 最大 湿球温度 16-32 C 20- 80 % 23 C o o 22 Co 45% 服务器运 行环境 设计运 行环境 冷水 冷空气 热空气 热通道 冷通道冷通道 机柜 机柜机柜 • 送风和冷水是机房冷却的根本 • 从机柜中抽出热风经空调设备冷却,冷风再经过架高地板送回机柜 • 简单的目标——维持机柜温度在设备厂家建议的水平之下 –IBM建议运行温度在25C之下 IBM可支持运行温度至35C 机房冷却系统的原理 7U的BladeCenter Chassis, 250 CFM at 25C; 455 CFM at 32C or greater 9U的BladeCenter H Chassis, 430 CFM at 25C; 800 CFM at 32C or greater Grate tile Perf tile Blade Servers Standard IT Equipment With Effort Typical Capability Extreme Impractical 12 10 8 6 4 2 0 0 100 200 300 400 500 600 700 800 900 1000 [47.2] [94.4] [141.6] [188.8] [236.0] [283.2] [330.4] [377.6] [424.8] [471.9] 要求仔细的高架地板设计,仔细 的空调布置,地 板下阻碍物的控 制。300-500 cfm 机柜 功率 (kW) 1块地板送风 制冷容量 地板送风制冷容量 传统高架地板送风-制冷容量的限制 地板送风量 (cfm) [L/s] 高密度数据中心的趋势 • 高密度机房的特点: – 一只机柜装入多只高密度刀片服务器 或 CPU,最大的功率超过20kw,远远超过传统的数据中心的设 计的功率和制冷容量范围。 – 以IBM P570为例, 需2,500cfm(立方英尺/分钟)(1,180L/S)的冷空气到机柜。 – 从机柜带走2,500cfm(立方英尺/分钟)(1,180L/S)的热空气。 – 保持热空气离开设备的进口。 – 有冗余的且连续不断的提供以上的条件。 • 高密度机房是必然趋势,但是,随之而来的是必须解决高密度带来的传统方式无法满足制冷 容量的限制! IBM System x3550 外形/高度:机架式/1U 电源(标配/最大):350W 1/1 外形/高度:机架式/1U 电源(标配/最大):670W 1/2 (低端) (高端) 高密度数据中心需要考虑的问题 • 散热: – 面临气冷却系统制冷的瓶颈 – 传统高架地板送风量的限制 – 必须考虑合理的气流组织 • 节能: – 使用水冷系统 – 变风量全热交换器新风系统 – 存储制冷 – 气流分析 – 布线优化 – 电源管理 –…… 绿色数据中心最佳实践 Cold Aisle Cold Aisle Cold Aisle Cold Aisle Hot Aisle • 机房维护结构 • 高密度 • 热通道/冷通道设计 – 冷通道 – 进风通道,热通道 – 排风通道 – 机架进风面相对,排风面相对 – 空调放置对应于热通道的尽头 Return air Server CRAC Bypass when floor tiles and racks badly located/ oriented High exit velocity • 数据中心最佳实践__气流管理的误区 • 避免送入冷风与排出热风混合 – 实施上的错误 – 出风地板放错位置 – 泄漏 – 线缆入口、机架之间和机架之内的 缝隙 – 对机架内空位使用挡板 – 使用线缆垫圈 Supply air Return air Server Recirculated air (if servers need more air than supplied) CRAC • 传统空调控制的误区 – 空调由回风温度决定机房状态 – 空开浪费能源 – 服务器风扇能耗增加 能源的效率 – 温度提高能耗 •旁路和回流会对服务器内部的温度造成很大的影响 – 服务器内部 Delta T参数显示相应设定值温度的提升空 间 – 统计发现,每上升一度,制冷器消耗3.5%的能耗 Other 44% Planar 4% PCI 3% Memory 11% Processor 30% Standby 2% HDD 6% Processor Memory PCI Planar HDD Standby Other 架高地板下对送风的阻塞 冷水管 电缆 诊断和设计工具——计算机模拟气流分析 采用模块化理念,大部分基础设施是在机架的行中,帮助提升效率及节约空间 布线 UPS/电池 行内散热 (In-Row Cooling) 设备机架 UPS 电源 分配/旁路 非活动地板环境 机架可以利用一个可选的空气密闭装置来强制排出的热量通过散热单元来避免它 与所输入的冷空气混合 机架密闭装置选件 辅助制冷 Supplemental Cooling Module Pumping Unit Flexible Piping with Waterless Refrigerant •Plug-and-play connections and flexible tubing enable cooling to be reconfigured as room conditions change Plug-and-Play 15 kW Per Connector 客户需求 ƒ 确定并针对最大的能源效率区域 ƒ 减少支持 Bromont (位于加拿大魁北克 )现场 的冷却器工厂的能源消耗和运营成本 解决方案 ƒ 采用水冷 ƒ 安装“Cool Battery” (冷电池) ƒ 通过存储冷气,供一整天使用,从而提高了冷 却器的利用率 ƒ 利用环境 —— 自然冷却 收益 ƒ 将冷却器工厂能源成本降低 45% – 每年超过 530 万千瓦小时 – 需求减少约 100 万瓦 ƒ 无需安装更多的冷却器 ƒ 有益于生态环境,无毒,且无需维护 采用新兴的制冷技术来降低45%的运维成本 • 传统的冷却设备为计算机房HVAC单元产生冷冻水并且热量通过一个冷却塔被排放到室外 – 室外温度越高,冷却设备和冷却塔的工作负担越重 – 冷却设备的尺寸必须能够顾及这些极端情况 – 数据中心冷却负荷的多变性使得冷却设备部分工作,并且效率不高 – 没有监视和控制设备来进行优化 数据中心存储冷却解决方案 ƒ优化冷却设备效率 • 消除冷却设备部分负载 • 更有效地使用已安装的设备能力 - 随需应变 • 当室外条件更合适时才运行制冷设备 • 免费制冷技术(Free cooling) •峰值能量需求降低 •当能量使用率较低时,在非高峰时段进行制冷能力存储 •当能量利用率较高时才利用存储的制冷能力 •实时优化 •监视与控制 •外部环境条件 •数据中心内部环境条件 Estimated Annual Electrical Savings 0 100,000 200,000 300,000 400,000 500,000 600,000 700,000 800,000 900,000 1,000,000 Current Practices With Stored Cooling Energy Cost ($USD) 45% Savings Chiller Plant 25,000 平方英尺的数据中心 •3级的商业弹性配置 •年度冷却设备的开支预算为$860K •45%的冷却设备保存在IBM Bromont 假想条件 数据中心存储冷却解决方案 - 优化效率,提升非峰值利用率 一个能量存储实际应用的例子 0 0.5 1 1.5 12am Noon 12am SCS Discharging SCS Charging Data Center Load 满负荷运行的冷却设备 •数据中心对 电力/冷却 有可变的需求 – 假设冷却设备制冷能力为1.0 – 冷却设备全天都满负荷满效率运行 • 部分用来满足数据中心的制冷负荷,另外一部分补充SCS • 全部用来满足数据中心的制冷负荷 –SCS在中午开启,以应对峰值四化的高负荷 部分存储 标准模块组件方案 采用背门热换器降低冷却成本 • IBM’s Cool Blue Rear Door Heat eXchanger(背门热交换器)可以消除机架 散出来热量的50% – 不需增加额外的风扇和用电 – 装在机架的背面(出风面,增加5”厚度) – 不需重新布置机房 – 成本效率高 • The CoolBlue RDHX以传统冷却方式¼的价 格提高冷却能力 使用冷水的新方法——散热由冷水直接交换走更为高效 IBM企业级机柜 热交换设备: ƒ 分隔外部水循环和内部水循环 ƒ 控制送入机房冷水温度(18oC),防止冷凝 CL 经冷却的空气 散热 散热 4U 同样的冷水源 Rear Door Heat eXchanger (背门热交换器) Thermal conductivity [W/(m*K)] Volumetric heat capacity [kJ/(m3*K)] Air 0.0245 1.27 H2O 0.6 4176 機櫃內溫度高達38.9度 --- 36台IBM x3550 Server 背板冷卻後溫度---瞬間溫降17度 中国案例: 1.3300 刀片 600 m2 采用风冷+水冷 用电2500KW 2.采用纯风冷 1600 刀片 600m2 用电2500KW 水冷处理器 元型 Left Rack Manifold Right Rack Manifold Node #14 Node #13 Node #12 Node #1 Left MWU Right MWU Rear Door Heat Exchanger s s Solenoid Shut-off Valve Parker 3/4" SS Quick Connects Colder 3/8" SS Quick Connects Modular Water Unit MWU: Modular Water Unit MWU: ƒ 只需传统风冷系统1/5的冷却用电 Power Consumption for Cooling kW 120.6 25.4 % Reduction in Cooling Power Consumption --- 78.9% Power Savings kW --- 95.2 Annual Cost Savings k$ --- 83.4 Annual Cost to Power Electronics k$ 855.0 767.4 Annual cost to Power Cooling Components k$ 105.6 22.3 Annual Power Cost: Electronics + Cooling k$ 960.6 789.6 Delta Cost: Electronics + Cooling k$ --- 171.0 % savings --- 17.8% Units Air Cooled System Water Cooled System 水冷技术——水冷处理器 自然冷却原理-当室外温度低于18摄氏度时通过干式冷却器利用室外冷空气冷却冷冻水, 并将被冷却的 水输送到机房内通过机房专业空调冷却室内冷负荷。此时冷水机组的压缩机根据室外气温的高低进行变频 调节达到节能目的。 空调系统节能方案 -自然冷却水冷精密空调系统 机房精密空调冷源考虑采用动态自然冷却风冷冷水机组,机组冷凝器风扇采用直 流无刷电机,机组过渡季节采用自然冷却。 压缩机在不同室外温度下的运 行状态: 1. 室外温度13-18摄氏度:混 合状态运行(即压缩机制冷与 自然冷却混合运行); 2. 室外温度8-12摄氏度:强制 自然冷却运行(干冷器风机全 速运); 3.室外温度7摄氏度以下:完全 自然冷却运行(干冷器风机选 择运)。 自然冷却水冷精密空调系统原理图 空调系统节能方案 -水冷精密空调系统 空调系统节能方案 -自然冷却水冷精密空调系统案例分析 下图为某项目采用动态自然冷却风冷冷水机组后各种节能运行状态在全年所占的比例: 黄色:全压缩机制冷运行; 绿色:混合状态运行(即压缩机制冷与自然冷却混合运行,适合室外温度13-18摄氏度); 褐色:强制自然冷却运行(干冷器风机全速运行,适合室外温度8-12摄氏度); 红色:完全自然冷却运行(干冷器风机选择运行,适合室外温度7摄氏度以下)。 空调系统节能方案 -自然冷却水冷精密空调系统案例分析 精密空调额定制冷量500kW; 蓝色为普通风冷精密空调全年功耗,粉色为动态自然冷却风冷冷水机组全年功耗。 下图为根据某项目所在地区年平均气温下2种精密空调制冷系统系统能耗比较图: 虚拟化 -IBM 数据中心 采用高比率的虚拟化节约了70%的运维成本 客户需求 • 需要降低系统管理的复杂度 • 需要提高稳定性和可用性,并提供世界一流的安全性 • 改进运营成本和能源效率 • 将 3,900 台服务器合并为 33 个 System z 大型机 • 服务器数量的减少可以最先带来最多的节约 • 最先清除利用率最低的资产 • 集合客户工作产品线,利用强有力的客户大宗买进 • 关注释放活地板空间 • 向大型机配置新应用 • 将每年的能源使用量减少 80% • 总占地面积减少了 85% 解决方案 收益 System 1 APP 1 APP 2 10% busy 2KW System 2 APP 3 APP 4 10% busy 2KW System 4 APP 7 APP 8 10% busy 2KW … 使用虚拟化技术进行服务器合并是一个非常有效的节 约能源的工具 总耗电 8KW Advanced Virtualization APP 5 APP 6 70% busy 4KW APP 1 APP 2 APP 3 APP 4 APP 7 APP 8 总耗电 4KW 服务器合并可以有效地节能 虚拟化:提高服务器的使用率 •POWER6处理器节电功能 – 节电: 监控和减少向处理核内闲置部份的供电 – NAP模式: 停止空闲的处理核,有需要时才重启 – 温度调节: 使用传感器监控过热部份的供电 •System p6-570硬件节电功能 – 改良的系统设计和实施: 实现2倍于的性能p5-570* – 可变速风扇(10,500 – 5500 RPM): 根据外部温度调整风扇转 速,最高可降低风扇能耗(占服务器能耗的1/3)达45%** – 背门热交换器: 直接冷却机柜散热,降低机房风调需求达60%# * Based on various SPEC benchmarks; IBM p570 POWER6 result to be submitted on 5/21/07 ** Based on IBM internal measurements # IBM press release; 05/10/07; http://www.ibm.com/press/us/en/pressrelease/21517.wss POWER6TM 技术 58% 应用 12% Database 电子邮件/群件、文件/打印各占2% 2% 7% 基础 设旆 4% 5% 4% 系统管理 5% Web 2% Source: based on large studies conducted by IBM Lab Services. The analysis indicates projected energy savings which represent averages of more than 4,000 servers in actual customer data centers. Actual customer data is used for competitive systems. Unix IBM 49%18% 4,308,741 Total kWh/yr 334,116 kWh/yr Unix IBM Unix IBM 7台物理服务器(划分36个逻辑分区) 、3个机柜 752台物理服务器、95个机柜 以先进POWER虚拟化技术取代传统Unix环境的节能效果 工作负荷种类: 环保! 降低能耗达92% 服务器数和机柜数 能源消耗 服务器使用率 POWER6的虚拟化新功能——实时分区迁移 •在非高峰时间,关闭部份数量的服务器 通过实时分区迁移功能节省用电——将低使用率服务器上的分区迁移走,然后关闭这些服务器。 • 测量用电量和预测用电趋势(第一阶段) • 确认当前的真实用电量 • 避免按额定标称办事 • 使用服务器内置的用量测录功能或外置于PDU的用电测录功能 • 用电封顶、准确分配用电(第二阶段) • 实际用电量由硬件的配置、操作系统、应用和数据决定 • 根据用电量测量记录的历史数据准确分配用电: – 配合每台服务器的用电要求 – 配合数据中心的供电能力 • 节省用电(第三阶段) • 低使用率时减低用电量 • 节省用电成本 管理_用电管理 ƒ 帮助用户测量和控制IT设备的用电 ƒ 对IT设备用电进行封顶 ƒ 适用于IBM所有的服务器和存储系统中 系统用电管理软件——Active Energy Manager 用电封顶——Capping Proper Power Allocation Wasted Power Allocation 传统用电分配采用 “80%”原则 没有用于运算 的供电能力 用于运算的供 电能力 当服务器数量较大时没有用于 运算的供电能力(红色部份) Server 1 Server 6 Server 5 Server 2 Server 4 Server 3 Server 7 机柜 传统用电分配 (没有 PowerExecutive) Server 1 Server 6 Server 5 Server 2 Server 4 Server 3 Server 7 Server A Server B PowerExecutive 封顶下的用电分配 没有用于运算的供电 能力可以投入使用 机柜 额定标称功率 Power Calculator 实际使用中最大用电功率 Å Power Exec Trending (weeks, months) Æ • Tivoli Usage and Accounting Manager • 谁在用电? • 耗用是多省? • 如何收费? 用电管理软件——Tivoli 通过遵从供电和冷却的最佳实践以节省开支、 减轻预算压力 投资于供电和冷却的创新技术,改善运作 将环保责任融入企业文化和价值 如何实现数据中心高能效 ? Highlights of IBM’s Operational Leadership in Climate Protection Present Goal Further extend IBM’s early accomplishments by reducing CO2 emissions associated with IBM’s energy use 12% from 2005 to 2012 via energy conservation, use of renewable energy, and/or funding CO2 emissions reductions with Renewable Energy Certificates or comparable instruments. Present Goal Further extend IBM’s early accomplishments by reducing CO2 emissions associated with IBM’s energy use 12% from 2005 to 2012 via energy conservation, use of renewable energy, and/or funding CO2 emissions reductions with Renewable Energy Certificates or comparable instruments. Early ResultsEarly Results Awards & Recognition Early Support for Disclosure S i n c e i n c e p t i o nS i n c e i n c e p t i o n Charter member 2003Charter member 2003 CHARTER MEMBER 2002 CHARTER MEMBER 2002 Business Environmental Leadership Council Business Environmental Leadership Council USEPA Climate Protection Award 1998 and 2006 40% Between 1990 and 2005, IBM’s global energy conservation actions reduced or avoided CO2 emissions by an amount equal to 40% of its 1990 emissions. Charter member 2000 Charter member 2000 WRI GREEN POWER MARKET DEVELOPMENT GROUP Charter member 2000 FORTUNE 5 00 Top 20 2004, 2005, 2006 FORTUNE 5 00 Top 20 2004, 2005, 2006 Computer Program Charter member 1992 Computer Program Charter member 1992 1605(b) voluntary emissions reporting S i n c e 1 9 9 5 1605(b) voluntary emissions reporting S i n c e 1 9 9 5 Green Power Purchaser Award 2 0 0 6 Green Power Purchaser Award 2 0 0 6 20052005 ‘98, ‘99, ‘01‘98, ‘99, ‘01 20052005 1998 Become the first semiconductor company to set a numerical target for PFC emissions reduction 600 500 400 300 200 100 0 2000 2001 2002 2003 2004 2005 58% 1998 Become the first semiconductor company to set a numerical target for PFC emissions reduction 600 500 400 300 200 100 0 2000 2001 2002 2003 2004 2005 58% The Clim at e Group 2005 The Clim at e Group 2005 The Clim at e Group 2005 IBM长期参与环保与节能的公众议题,并获得各界肯定 主要内容 1. 数据中心发展趋势 2. 绿色创新数据中心 3. IBM成功案例 What is IBM Value • 选择IBM,选择稳定高效的合作伙伴 •IBM在数据中心及智能化集成服务领域一直保持领导地位,并依靠雄厚的技术实力 和完 善的服务体系,成为业界满意度极高的服务提供商。我们拥有: • 业界领先的方法论。我们遵循业界领先的系统方法论,深刻理解IT行业运作,,可以帮助各行业用户 制订出切合实际的、投资合理的、可靠的方案。 • 全球数据中心运维经验。IBM不仅了解IT设备的运行,同时IBM本身在全球运营和建设了超过400个数 据中心,为IBM自己和客户提供服务,我们了解数据中心的运行,把运营的经验再运用到数据中心的 建设上。 • 丰富的项目管理经验。IBM是一个以管理著称的公司。IBM凭借丰富的项目管理经验,能够为您设 计、管理和建造可靠的信息技术基础架构,使您的团队把精力集中在增长和成功上。 • 整合的IBM技术和资源。我们的专业团队背后有IBM整合业务的强大支持,更有全世界IBM业务合作伙 伴网络协助,职能涵盖行业和IT咨询、应用管理、企业改革、实施服务和全面承包各方面,为您提供 端到端的全方位解决方案。 • 随需应变的长期承诺。IBM能够做出长期技术支持的承诺,根据最新的技术、客户的需求实时进行服 务升级及补充,以确保您的企业连续运作。 资质和证书 建设部智能化甲级设计资质 建设部智能化专业承包二级资质 信息产业部信息系统集成一级资质 认证: ƒ国际认证项目经理 PMP - 共38人 日本Mabuchi总部大厦 Reduce Heat load of Outer Shell -Utility core at east & west side of the bldg -Roof Garden Natural ventilation (free cooling) -Use double-skin for natural ventilation for each floor -Natural ventilation at the top of the atrium Double skin -block sun light heat from south side -high insulation capability Under-floor + Partition A/C system Underground free cooling tunnel Structural Thermal Storage system Use the pre-cast concrete slab void to pre- cool the office Computer aided control system -Air conditioning system -Lighting system -Blinds in double skin ƒ工作范围 : 咨询顾问,设计,设计管理 ƒ结果 (100 年生命周期) ƒ减少了14%的生命周期成本(Life Cycle Costs_LCC) ƒ减少了23% 生命周期CO2 (Life Cycle CO2_LCCO2) A rating system to evaluate the Building A rating system to evaluate the Building Environmental Efficiency (i.e.; realize better Environmental Efficiency (i.e.; realize better building environmental quality/performance with building environmental quality/performance with lesser environmental load to build and operate)lesser environmental load to build and operate) Bldg. Bldg. EnvironmentalEnvironmental QualityQuality [Q][Q] Bldg. Bldg. EnvironmentalEnvironmental LoadLoad [L][L] BEE=BEE= BEE ; Bldg. Environmental Efficiency) BEE ; Bldg. Environmental Efficiency) Building Site Boundary ■CASBEE Rating Criteria ■CASBEE : Bldg. Environmental Efficiency Rating System sponsored by Japan’s Ministry Of Construction CASBEE ; Comprehensive Assessment System for Building Environmental Efficiency Energy Consumption CO2 discharge Soil/Underground water contamination Air discharge /Noise/Air pollution/Heat discharge/etc. C Class B-Class B+ ClassA Class 0 50 100 0 50 100 Bldg. Environmental LoadBldg. Environmental Load LL((PointsPoints)) Bldg. Environmental Quality Bldg. Environmental Quality Q Q ( ( Points Points ) ) Base line BEE=3.0 BEE=1.5 BEE=1.0 BEE=0.5 Mabuchi Rating :Q=85, L=23, BEE=3.7 85 23 Mabuchi ■ Takenaka HQ Bldg.(4.9) ■ Kansai Power HQ Bldg.(4.0) ■ IBM HQ Bldg. (1.7) GoodGood GoodGood S Class Project profile -Mabuchi HQ Bldg. (completed in 2004, Total floor area 20,000 sqm) S Class: Excellent A Class: Very Good B+ Class: Good B- Class: Fair C Class: Poor 被评为能源效率 “S Class” 63 上海瑞吉红塔大酒店智能建筑项目 z 上海33 家 5 星级酒店中唯一的甲级智能建筑 z 5.1% 的能效比 (水/电/气成本与酒店年收入比,中国五星级平均为 8%) 项目基本信息 照片 客户名称 中国农业银行 日期 2005 地点 华东(上海) 项目名称 中国龙航信息中心设计咨 询项目 面积 about 124900 M2 项目描述 农业银行是国有四大银行之一 龙航数据中心包括有4 个功能建筑:生产区、办公区、酒店区和后勤保障区。IBM 为该项目提 供数据处理、网络应用、咨询服务。 子系统包括:数据中心基础建设、 园区弱电、安全、网络等。 IBM 中国近年来成功案例 项目基本信息 照片 客户名称 中国银行 日期 2005 地点 华东(上海) 项目名称 中国银行张江数据中心设 计咨询项目 面积 about 30600M2 (一 期) 项目描述 中国银行是国有四大商业银行之一,张江数据中心作为7 ×24小时支持中行全球业务的生 产运行中心,其项目工程建设必须体现高可用性 、高可靠性、高安全性、高可扩展性、技术 先进、全面实现科学化管理的总体设计原则。 IBM 在该项目提供数据中心、ITSM 、网络和园区弱电设计咨询。 IBM 中国近年来成功案例 项目基本信息 照片 客户名称 上海证券交易所 日期 2005 地点 华东(上海) 项目名称 上海证券交易所数据中心 设计咨询项目 面积 about 3200M2 项目描述 上海证券交易所成立于 1990 年,作为非营利性组织管理中国上市公司。该数据中心项目 为上交所提供数据集中、灾难恢复等服务。 IBM 在本项目提供数据中心咨询建设。 IBM 中国近年来成功案例 上海证券交易所数据中心 ƒ 方案特色 ƒ统筹考虑技术、流程管理、组织管理架构。 ƒ统筹与建筑物相关的各项技术的设计(如: 机电、消防、环境监控、安保监控、通讯及综 合布线系统) ƒ提高全方位的整体管理能力 ƒ体现应变性/可管理性 • 方案数据 – 面积: 3200平方米 – 完工时间: 1年半 – 使用单位多达4个单元

下载文档,方便阅读与编辑

文档的实际排版效果,会与网站的显示效果略有不同!!

需要 6 金币 [ 分享文档获得金币 ] 1 人已下载

下载文档

相关文档