『新基建』

中科曙光:系统快且冷,非是藉秋风

撰文 | 康翔

编辑 | 阿由

首先声明,我不是个Couch potato。不过,某类节目除外。

譬如多年前芒果台的《天天向上》,以及湖对面那家卫视台去年推出的《非正式课堂》,诸如此类的节目往往能够把我钉在沙发上,类似教学的演绎模式,总可以把我的思绪,拉回到多年前的课堂,感受到暌违的情怀。

7月16日,以“曙光小课堂”的别致形式,一场数据中心节能黑科技的大放送活动在北京正式举行。活动的参与者包括数十名媒体的老编小记,以及来自曙光节能技术(北京)股份有限公司(以下简称:曙光节能)和节能技术委员会的专业人士。

顾名思义,曙光节能是中科曙光旗下的公司,以发展数据中心的高效制冷技术为己任。在这个圈子里,曙光节能早就是响当当的角色。

数据中心的新需求

数据中心的Owner们变得越来越不安分起来,他们上雪山、下海底,挺进沙漠和草原,甚至盯上了北极,只是为了借助寒冷的空气以及丰富的水电资源,降低自身的能耗问题,从而为经济社会的运行提供更加充沛的算力。

与过去的石油经济时代相比,现在的世界已经格外不同。“数据当仁不让地成为一个国家最重要的战略资源。作为数据最重要的承载体,数据中心的重要性可想而知。”中国数据中心节能技术委员会秘书长吕天文表示。

目前,数据中心已经成为当今全球经济发展的基石。数据显示,截至2017年,全球大约拥有800万个数据中心,消耗了416.2太瓦时(1太瓦时约为10亿千瓦时)的电力,相当于全球总用电量的2%,预计到2020年将攀升到5%。

对于这种增长,我们必须承认并不为之感到愉悦。令人感到不快的,不止是能耗,还有大规模建设带来的数据中心用地问题,国内一线城市们已经纷纷做出反应。譬如北京就禁止在六城区和通州新区建设新的数据中心,在此之外的新建数据中心,也必须做到PUE低于1.4。

据吕天文透露,北京市可能在最近一两个月内,会对数据中心做出更高的要求,要求企业通过节能改造,将数据中心的PUE降低到1.3以内。针对新建和已有的数据中心,具体的要求有所不同,不过指向是一致的,即实现数据中心的绿色和可持续发展。

现在的形势变得愈加严峻,数据中心面临大考。

包括人工智能、虚拟现实、工业互联网、车联网等在内的新型应用,带来了越来越多的数据。仅以自动驾驶为例,一辆汽车每天产生的数据可以达到100GB,假如全球汽车2亿台保有量的四分之一升级到自动驾驶,其数据量就将超过我们现有数据中心的“消化”能力。

狮子大开口的,还将包括超算。吕天文表示,从国防军工、地质勘探、气象预报,到工程仿真、影视渲染、游戏娱乐,当前超算已经广泛应用于许多行业,高功率、高密度、低功耗,同样成为超算的现实要求。

液冷引领数据革命

面对数据中心日渐急迫的应用需求,早在十年前中科曙光就做了判断和预研,并在2015年推出了国内首款标准化量产的冷板式液冷服务器,并在当年完成国内首个冷板式液冷服务器大规模应用项目,2017年又交付了国内首套商用全浸没液冷服务器,并在今年完成了国内首个浸没式液冷服务器大规模应用项目。

曙光节能总经理何继盛告诉我们,截至目前,曙光拥有的“液冷”核心专利就超过了40项,此外还有40余项与“液冷”相关的专利已提交申请,曙光事实上已经成为国内乃至国际市场上的一只“冷力军”。

顶级企业和大型云计算公司财大气粗,当然可以选择到草原或是北极建立新型数据中心。毫无疑问,借助外部的凉爽环境及相应资源,这些数据中心的PUE可以做得很漂亮,但是对于绝大多数的企业来说,这种做法不具备参考价值和可复制性。

“尤其是这种数据中心远离客户,距离主干网络非常遥远,数据中心的运维管理将变成一件非常具有难度和挑战性的工作。对于企业来说,即便不考虑建设成本,这也是难以接受的。”何继盛表示,曙光可以为客户提供极具竞争力的数据中心解决方案,PUE也完全不亚于那些所谓的新型数据中心。

经过多年的研发与实践,曙光已经掌握了行业领先的“全浸没液冷”技术,依托该技术研发的曙光C8000刀片式计算模组,其计算单机柜功率可达160KW,而PUE则可以达到令人咋舌的1.05甚至更低,相比传统风冷数据中心可节电超过30%。

这就是大名鼎鼎的曙光C8000

目前,液冷服务器主要分为两类:冷板式冷却液冷服务器、全浸没式冷却液冷服务器。在国内,传统IT厂商大多选择了冷板式的液冷设计,而互联网厂商譬如阿里采用了浸没式的液冷服务器,而曙光公司则是覆盖了两类产品。

冷板式液冷系统的PUE可以实现1.2以下,相对传统风冷取得了巨大的进步,降低服务器80%以上的发热量,能耗、噪音得以大幅度下降;全浸没式冷却液冷较之冷板式则是更进一步,实现了所有指标的全面胜出。

何继盛相信,全浸没式冷却液冷将是未来的主流方向之一,必将得到越来越多数据中心的广泛采用。

液冷时代的美好未来

何继盛认为,数据中心的发展已历经了五代。在他看来,上个世纪60年代的机房可以算是第一代数据中心,建设上没有严格和统一的标准,数据中心也不是7×24小时的工作,而是和人类一样,每天“上班”8小时。

其后的第二代,塔式服务器开始出现,专用的机柜和UPS设备也开始冒头,通过空调的自然对流对数据中心进行降温,不过效率嘛,大家可想而知;随着互联网的蓬勃发展,数据中心从上个世纪90年代末开始进入规范化和标准化的建设模式,恒温恒湿的空调也成为很多数据中心的标配,这可以算是第三代数据中心。

“我们现在看到的绝大多数数据中心,就属于第四代数据中心。”何继盛表示,由于人工智能、大数据等导致的数据量爆发性增长,对数据中心的存储和计算能力提出了新的挑战,除了具备标准化和模块化的特征之外,第五代数据中心对低能耗和高密度提出了极致的需求。

在这种情况下,液冷数据中心就成为炙手可热的话题,也被业界公认为成为发展的趋势。与空气制冷相比,液冷的冷却能力高出了1000-3000倍,可以对发热量最高的部件做到精准冷却或是部件级制冷,保证元器件的工作性能更高,并且更加稳定。

对于整个数据中心来说,浸没式液冷可以进行全地域、标准化的布置,实现全年的自然冷却,PUE值可以做到接近于理论的极限值,这也是目前已知的包括风冷在内的其他所有冷却方式,均无法企及的高度。

随着5G时代到来,加之人工智能、虚拟现实等新型应用的推波助澜,在用户密集区配置高计算密度的边缘数据中心正在成为趋势,在曙光液冷“数据中心”计算模组的加持下,各种应用和计算场景也将得到全方位的提升。

何继盛相信,在未来几年里,对于那些追求极致计算能力的高性能应用领域来说,液冷散热尤其是全浸没式液冷将会有突飞猛进的发展,甚至可能超越传统的风冷散热。“只有数据中心更cool,我们的世界才会更酷。”

华为智能安防:小块头也有大智慧

上一篇

新华三“至极之道”,数字基础设施的智慧动力来源

下一篇

你也可能喜欢

热门标签

微信扫一扫

微信扫一扫