主页 > 科技 > 正文

数据中心硬件正在发生哪些变化 ?

2019-09-14 09:00暂无阅读:997评论:0

在真正的数据中心显现之前,办事器就已经安装在 19 英寸机架中。数据中心建筑的空气冷却手艺也成长到很高的水平,数据中心的配电也是一项非常成熟的手艺。而在曩昔的几年,数据中心手艺只有一些增量的改变。

考虑到这一切,人们或者会认为数据中心硬件的设计已经很尺度,其将来的转变只是一些调整。不外这种设法是错误的。数据中心计架、冷却、配电方面还有好多前沿手艺和方式。有一些手艺已推出多年,有些手艺似乎倏忽显现。但并非所有手艺都邑获得市场驱动力。

机架的革命

对于习惯于办事器机架成排垂直布置的人来说,进入法国供应商 OVH 公司运营的云较量数据中心之一就会有一种错乱的感受。与业界的尺度做法南辕北辙,OVH 公司数据中心的办事器机架不是垂直分列布置的,而是水平堆叠布置的。OVH 公司进展成为欧洲首要的云较量供应商,该公司基于 VMware 和 OpenStack 的平台即办事 ( PaaS ) 民众云并为客户托管企业私有云。

OVH 公司在法国 Roubaix 的数据中心举措四周运营一家生产机架的小型工场,其生产的 "Hori-Racks" 机架与传统 48U 机架尺寸沟通,但设置完全分歧。在它们内部,三个小型 16U 机架并排放置。工场预先将这些 "Hori-Racks" 机架与办事器一路输送到 OVH 公司的数据中心举措,这些数据中心首要在法国运营。

OVH 公司首席工业官 Fran oisSt é rin 说," 机架立平堆叠布置体式的原因是生产速度快,而且易于布置,能够使用叉车将它们布置在数据中心,并将其更快地堆叠和安装。"

其机架经由快速构建和测试,采用即时方式,能够最大限度地削减库存。三名工作人员能够并排工作来装载和测试硬件,然后采用叉车、卡车或拖车能够将机架移动到目的地,例如在法国格拉夫林和斯特拉斯堡或新加坡。在数据中心计房中,能够最多将三个机架堆叠在一路,供应与传统机架沟通的办事器密度。

OVH 公司能够自由地选择或布置硬件,因为供应 PaaS 级别发卖办事,而不会与客户的硬件搭配。此外,OVH 公司采用了一种新颖的冷却方式。

其他公司在改变机架时不会像 OVH 公司的机架手艺那样激进,但还有好多公司进展采用新方式来构建它们。最显着的例子是采用开源硬件,如由 Facebook 推出的 Open Compute Project ( OCP ) 和由 LinkedIn 公司推出的 Open19。

这两家公司都是 " 买家俱乐部 " 成员,共享硬件的定制设计,以便多个客户能够从这些调整中获得大订单的优点——平日旨在简化套件,并削减最终产物中虚耗的材料和能源。事实证实,传统的机架和 IT 硬件虚耗了大量资源,从不需要的电源设备到制造商的品牌标签。

OCP 由 Facebook 公司于 2011 年推出,旨在斥地和共享机架和其他硬件的尺度化 OEM 设计。该公司推出的来由是,因为规模宏大,收集规模的公司能够向供给商要求本身定制的硬件设计。经由更普遍地分享这些设计,将有或者将这些优点传递给规模较小的厂商,同时从他们那边获得改善设计的建议。

固然 OCP 的创始人都是针对大型云较量厂商,但有迹象表明,这些设法已经进一步扩展到托管数据中心办事商。在这里,供应商对数据中心空间中的硬件没有最终掌握权,是以它无法供应 OCP 设想的单片数据中心架构,然则一些客户正在接管这个设法,而 OCP 已经发布了举措指南,并提出 "OCP 停当 " 的理念,这意味着 OCP 机架和 OCP 硬件将获得迎接和支撑。

OCP 提出了一种新的机架设计,它将更多的硬件装入与传统机架沟通的空间。经由使用机架内的更多空间,它许可采用 21 英寸规格的设备,而不是平日的 19 英寸。它还许可更深的套件,OpenU 的 1U 尺寸为 48mm,而通俗机架的 1U 尺寸为 44.5mm。

该设计还使用直流电源,经由机架后头的是电源分派总线。这种方式吸引了像 Facebook 公司如许的大规模用户,因为它许可数据中心作废 IT 对象包中的多个电源。它没有采用交流电源,而是在每个设备中将其整流为直流电,而且在一个处所完成。

Open Rack 版本 1 使用 12V 直流电源,版本 2 中也许可使用 48V 直流电源,这也增加了机架内锂离子电池的选项,能够将其作为一种分布式 UPS 系统。

这对某些人来说过于激进。例如,LinkedIn 公司在 2016 年推出了 Open19 基金会,该基金会在不打破 19 英寸模式的情形下提出了大规模市场简化。Open19 机架经由简化的配电系统划分多个机架,雷同于硬件供给商供应的专用刀片办事器。该基金会还共享 LinkedIn 公司斥地的收集交流机规范。

机架尺度正在升级,但 Open Rack 或 Open19 是否会名列前茅 ?

Open19 创始人 Yuval Bachar 说," 我们看到已经推出 21 英寸的 Open Rack 机架产物,我们仍然推出 19 英寸的尺度机架。我们进展在 PDU、电源、机架等常见器件方面降低 50% 的成本,但实际上降低了 65% 的成本。"

就在其推出 Open19 的同时,LinkedIn 公司也被微软公司收购,微软公司是 OCP 的首要支撑者,也是 Azure 云较量数据中心的 OCP 尺度设备的大型用户。微软为 OCP 供应一些新手艺,例如机架内置锂离子电池,为 IT 套件供应电源一连性,或者庖代 UPS 设备。

在完成 LinkedIn 收购之后,OCP 和 Open19 将会持续并行,OCP 为大型数据中心供应办事,而 Open19 则针对中小公司使用的较小数据中心举措。然而像 LinkedIn 如许的公司正在运营本身的数据中心。此外,Open19 还将专注于边缘较量布置。

然而,LinkedIn 公司在 2019 年 7 月公布,不再规划运行本身的数据中心,并将其所有工作负载转移到民众云,显然其使用了微软公司的 Azure 云平台。

同样,LinkedIn 公布其 Open19 手艺规范将为 OCP 做出进献。OCP 规范和 Open19 规范有或者在将来归并,但如今说为时尚早。即使 LinkedIn 公司不再需要它,该组织还有 25 个以上其他成员采用。

对于收集规模数据中心举措,OCP 正在推进第三版 OCP Rack,由微软公司和 Facebook 公司供应支撑,这似乎是由人工智能和机械进修所需的功率密度增加所驱动的。

Facebook 公司在博客公布推出 OCP Rack v3 时说," 在组件层面,我们看到各类处理器和收集芯片的功率密度在不久的未来会超出空气冷却设备的能力。在系统层面,人工智能硬件解决方案将持续鞭策更高的功率密度。"

新版本心在尺度化用于在机架内轮回液体冷却剂的歧管,以及用于柜门的热交流器,并包罗完全浸入式冷却系统的选项。今朝尚不清楚其具体的规格是什么,但它们未来自 OCP 的机架和电源项目,以及其进步的冷却解决方案子项目。

液体冷却

在曩昔的几十年里,液体冷却手艺显现出伟大的潜力。液体比空气具有更高的捕捉和移除热量的能力,而液体冷却机架中的硬件是对现有冷却实践的重大改变。是以,液体冷却一向列在那些不值得支付额外价值和精神的手艺名单上。

若是数据中心每个机架功率低于 20kW,采用空气冷却手艺能够有效地降低成本,而且无需采用液体冷却手艺。若是机架的功率密度平日低于 20kW,大多数数据中心能够在不必采用液体冷却手艺的情形下轻松构建。

然而,有两种或者性将液体冷却推向应用前沿:首先,用于人工智能等手艺的 GPU 和其他专用硬件将驱动功率密度上升。其次,对于那些实施液体冷却的公司来说,还有其他优点。一旦实施,液体冷却为数据中心举措拓荒了很大的天真性。风冷式机架是冷却系统的一部门,必需包罗空调、空气处理和掌握系统,并包罗整个建筑物的墙壁和地板。

液冷机架只需要一条电缆保持,能够零丁放置在水泥地板上、铺有地毯的空间或小机柜中。这或者很难应用在零售托管空间中,因为它会影响 IT 设备的布置和运营。是以,除非最终客户稀奇需要液体冷却手艺,不然不会采用。但它的确适用于数据中心日益增加的天真性,个中设备供应商能够掌握硬件,而且没有建筑级其余冷却遏制系统。

小型边缘较量举措平日是微型数据中心,并不具备数据中心的多种资源。而其他数据中心正在从新行使的建筑物内扶植,平日是小规模的增量。液体冷却系统能够很好地知足这些要求。

早期的大型机采用的是水冷却手艺,但在现代,数据中心采用各类液体的冷却手艺。

Asperitas、Submer、GRC 等公司完全将机架设备浸入在惰性液体中。其冷却不需要电能,但其维护很复杂,因为其机架设计完全改变,而且必需在更改硬件之前将办事器和开关从窗口中掏出并排干。Iceotope 公司将 IT 组件浸入机架内托盘的系统,如今获得施耐德公司的手艺支撑。

另一些冷却手艺则供应直接轮回,经由耗电器件的散热器进行液体冷却。这是由那些想要超频的游戏玩家斥地的手艺,以消弭发生的额外热量。像 CoolIT 如许的公司为机架中的贸易设备斥地了冷却轮回系统,但它们一向是稀奇针对超等较量机的利基产物。它们需要更调机架,并引入轮回系统,将冷水流入机架,并将温水排出 .

OVH 公司在法国北部的数据中心采用了本身的液体冷却手艺,该公司革新后的工场构建数据中心,这些工场以前生产的是挂毯、软饮料和医疗用品,采用液体冷却可以将这些工场建筑视为一个外壳:采用一次性建造、高架地板,以及 OVH 公司机架客栈,并凭据需要采用液体冷却系统。

OVH 公司首席工业官 Fran oisSt é rin 注释说," 我们的模式是购置现有建筑物,并对其进行革新来使用我们的手艺。我们能做到这一点是因为我们本身的机架有一个完全自立的水冷系统,并且还在机架后头使用一个热交流器门。这使得我们的机架与建筑物的其他部门完全无关。"

St é rin 透露," 我们这种手艺的天真性有助于改变市场。我们不需要竖立一个电力容量 100 兆瓦以上的大型数据中心,能够从扶植和布置 1MW 数据中心起头,能够认识数据中心市场对我们的影响。"

OVH 公司的立异鞭策了手艺的成长。OVH 公司手艺人员展示了当前版本的冷却手艺的维护办法,其维持过程看起来有些像外科手术。首先使用手术夹将装有冷却液的管子密封,然后将电路板与管子断开并掏出,然后采用 SSD 硬盘替代机械硬盘。而这种设计已经被另一种设计所庖代,这种设计使用了卡口接头,是以无需夹住管子就能够拔出电路板。

当然,也能够使用传统的液体冷却系统,包罗机柜中的热交流器,在空气冷却仍然可行的情形下,这种冷却系统也很有效。

OVH 公司将其与液体冷却轮回系统相连系。直接液体冷却从其 IT 设备去除了 70% 的热量,但仍然需要去除此外 30% 的热量,能够经由后门热交流器移除。这是一个将热量排出的闭环系统。

对于设计安装在壳体中的 IT 系统,不必采用液体冷却手艺。如今常见的一种情形是,在数据中心中,办事器机械零丁构建在水泥地面上,并采用传统冷却系统。Vertiv 公司等主流供给商供应的模块化建筑能够放置在水泥地板上,而其他供给商也在供应本身的产物。

一个有趣的供给商是 Giga Data Centers,该公司声称其 WindChill 数据中心 PUE 值能够低至 1.15,例如该公司比来在北卡罗来纳州的 Mooresville 大楼中开通运营一个数据中心举措,其采用的方式是在机架旁边竖立一个空气冷却系统,如许就能够吸入大量的空气并进行冷却轮回。

现在,IT 硬件设计正在以空前未有的速度发生转变,那些构建和托管数据中心的厂商需要跟上其成长的措施。