Omdia Research 数据显示,到 2028 年,全球数据中心液冷市场将达到 168 亿美元,年复合增长率为 25%。而在中国,据科智咨询预计,到 2027 年,随着 Al 系列应用的规模化落地以及液冷生态的日趋成熟,市场规模有望突破千亿大关。
此外,中信证券研报中曾提到,在数据中心算力提升和能耗降低推动下,液冷技术将加速替代风冷技术,成为新的技术发展方向。
伴随着液冷在数据中心中的发展,液冷产业也逐渐趋于细分化,产业链逐渐得以完善。最明显的一个变化就是,原先各类数据中心大会上,很少有出现液冷技术的身影,即便有出现,也大多存在于演讲 PPT 之中,以及一些整机柜的展示环节中。
但从去年开始,各类数据中心相关的大会上,除了液冷机柜的展示之外,越来越多产业上下游的零部件厂商开始活跃起来,冷却液、UQD 接头、水凝管等液冷下游的零部件厂商也在不断的更新迭代自己的产品。
数据中心步入液冷时代
液冷在数据中心开始大范围应用的起点,可以追溯到 2020 年前后。在 ChatGPT 尚未问世之前,数据中心还是以通用的 CPU 服务器为主,功率基本集中在 3kW 左右。
彼时的数据中心在刚刚起步的 「双碳」 战略的推动下,刚刚开始绿色化技术,而供冷作为数据中心非 IT 设备能耗中占比最高的环节,自然成为了新技术的突破口。间接蒸发冷却、自然风冷、AHU 机组等技术得以在数据中心中大展拳脚。
与这些仍通过 「风」 的方式散热不同的是,液冷技术在数据中心中的探索,让数据中心得以用 「水」 的方式实现散热。但彼时,用户对于液冷的态度,一方面是 「没必要」;另一方面,对于技术持相对保守态度的数据中心行业,因为对业务稳定性要求极高,所以对新技术的接受度并不是很高。那时业内常有声音表示,「宁可不用,也不能因为应用新技术而带来附加的风险。」
不过,对于行业来说,那个时间段,液冷已经开始在数据中心崭露头角,有个别的服务商开始提出液冷的理念,但当时业内绝大多数声音认为,这些理念都是在炒概念,并不看好液冷在数据中心中应用的场景。
一切都在 2022 年 ChatGPT 问世之后有所改变,新一轮 AI 的浪潮重塑千行百业的同时,也在对数据中心架构进行着颠覆性的改变。通用算力增加逐渐放缓,智能算力增速迅猛。
据 IDC 数据显示,2024 年全球人工智能服务器市场规模为 1251 亿美元,2025 年将增至 1587 亿美元,2028 年有望达到 2227 亿美元,其中生成式人工智能服务器占比将从 2025 年的 29.6% 提升至 2028 年的 37.7%。
针对此,对此,IDC 中国副总裁周震刚曾向笔者表示,从增加趋势上分析,2023-2028 年,中国智能算力五年年复合增长率预计将达到 46.2%,通用算力预计将达到 18.8%,「从数据上不难看出,目前,用户对于算力的需求,绝大部分的增量将产生在智能算力方面。」 周震刚强调。
此外,据 TrendForce 集邦咨询最新液冷产业研究显示,预估液冷在 AI 数据中心的渗透率将从 2024 年 14%,大幅提升至 2025 年 33%,并于未来数年持续成长。
在智算愈发火爆的背后,人们开始发现机柜的功率也越来越高,原本 300W 的单颗 CPU,已经不足以支撑业务,500W 的单颗 CPU 芯片成为主流,甚至极端情况下,单颗 CPU 功率已迫近 1kW。
与此同时,AI 对于 GPU 的需求,也让单机柜的功率进一步提升。2.5KW 标准机柜已经是过去式,8KW、10KW,甚至 20、50KW 的机柜的不断出现,也让单机柜功率越来越高。
高功率的背景下,传统风冷已经不能同时满足数据中心高密度、高效散热的需求,液冷也在近两年逐渐成为了数据中心供冷的主流方式。
液冷产业逐渐 「细分化」
芯片厂商开始逐渐认可液冷技术在数据中心中的应用,并加入到了液冷产业之中。
比如,英特尔就在冷板式液冷和浸没式液冷两个方向上都进行了深入的布局。
在浸没式液冷方面,英特尔与绿色云图合作,于 2024 年推出了 G-Flow 浸没式液冷机柜相关技术。该技术采用的是单相浸没式液冷,值得注意的是,在这套解决方案中,冷却液采用的是埃克森美孚最新研发的无 PFAS 浸没式冷却液 (某种碳氢合成油),相较于传统的氟化液更为环保。
在冷板式液冷方面,英特尔与国内精密温控节能解决方案英维克合作,推出了全球首个英特尔认证的基于至强 6 平台冷板式液冷整体解决方案。
作为一家芯片厂商,在液冷方面的布局,也给终端用户在选择液冷方面提供了一些参考。此前,绿色云图 CEO 胡世轩曾告诉笔者,对于用户而言,硬件厂商的背书是用户在选择液冷技术过程中关键的考量因素之一,「诸如芯片、服务器的厂商对液冷设备的背书,也就是用户应用液冷之后,这些硬件厂商之前不太愿意提供维保。」 胡世轩如是说,「不过这种现象已经明显有所改观,诸如英特尔这样的硬件厂商已经开始布局液冷方面的应用。」
而除了在液冷技术上的布局之外,英特尔在中国数据中心液冷生态上进行了深入的布局,在中国推出了中国数据中心液冷创新加速计划。
对此,英特尔数据中心与人工智能事业部中国区平台技术研发部总监杜黎光告诉笔者,英特尔中国数据中心液冷创新加速计划的整体思路是:将产业链从上游到下游,进行细致地划分,并在每一个液冷关键部件的赛道上,与该赛道的头部厂商进行合作。
「通过与头部厂商的合作,为他们赋能,开发新产品、新材料。」 杜黎光进一步指出,「再把经过和英特尔合作赋能的优质厂商推广到我们的 OEM、ODM 合作伙伴们,最终通过这些厂商,覆盖到英特尔终端客户,从而实现产业的共赢、多赢。」
加速计划的 「第一步」
前不久,在液冷创新加速计划的引导下,英特尔牵头成立了英特尔通用 UQD 互插互换联盟,并对包括英维克、丹佛斯、立敏达科技、蓝科电气和正北连接等在内五家液冷生态独立硬件供应商,进行了首批认证。
在数据中心的液冷系统中,快接头作为重要组件之一,需要在长达数年的使用周期与数千次的插拔中保持 「零泄露」,才能确保服务器的正常运转。然而由于不同厂商产品的尺寸、端部设计,密封形式和质量等不尽相同,不仅为采购与维护带来成本挑战,后续机型更迭亦需在兼容性验证、接头替换与液路调试上投入更多精力。
对此,杜黎光以快接头为例指出,一般而言,数据中心机柜使用寿命在 8~10 年,但服务器的更新迭代往往在 3~5 年,尤其是在 AI 时代,服务器的迭代可能会更快,在此基础上,如果能统一机柜内部零部件的规格,让后续更换服务器的过程中不需要再对机柜进行更换,则能为企业省下一笔不小的费用。
此外,由于原先数据中心行业液冷零部件领域厂商大多规模较小,且每家规格相对较为分散,质量更是参差不齐,而当液冷应用迎来爆发之后,这些问题逐渐被放大化,杜黎光表示,随着 UQD 使用数量增加,一方面,使用液冷的数据中心不断变多;另一方面,在产品形态上,每个服务器或者机架上用到的部件越来越多了。
「这些都导致了对 UQD 的可靠性要求更高。」 杜黎光进一步指出,「没有人希望自己用的液冷产品经常会漏,不管是什么原因。」
上述种种也给液冷产业带来了更大的挑战,而这也是为何英特尔要在这个时间节点推出液冷创新加速计划,并成立 UQD 互插互换联盟的原因。
在推进 UQD 标准化的过程中,联盟也遇见了一些问题,对此,杜黎光举例向笔者介绍了 UQD 测试过程中遇见的难题。以最简单的互插测试为例,在测试初期,英特尔采用了机器操作的方式进行插拔的测试,但很快发现,机器操作的方式,每次插拔的角度都是一样的,而在实际应用过程中,运维人员的插拔动作每次都不可能做到完全一模一样,所以在机器操作下的测试结果,未必在实际应用场景中也可以复用。
「基于此,我们改变了策略,通过真人手动插拔的方式进行测试,整个测试需要手动插拔超过 3000 余次。」 杜黎光强调。
而这种一丝不苟的精神只是整个测试过程严谨性的一个缩影。参与测试的蓝科电气相关负责人也对本次 UQD 联盟的严谨性做出了很高的评价,他表示,UQD 有各种各样的使用场景,不同场景、不同工况下,使用运行情况不同。与以往参与的 UQD 测试不同,此次对各种使用场景、极端状况都进行了全方位的苛刻测试,确保 UQD 在各种场合下高度可靠。
「在测试当中,无论是测试标准,还是可能的失效模式,都进行了测试方案,以及测试方案需要的测试设备、测试人员都非常专业,测试报告是经过大家深思熟虑,反复修改的。确保测试报告可以为互联网大厂、集成商、服务器厂家带来极大的参考价值。」 该负责人进一步指出,「最终,提供的不仅是一份报告,更是一份极有参考价值的行业设计方案和验收标准。」
当 AI 算力需求以年均超 40% 的速度激增,当单机柜功率从几 kW 跃升至几十 kW,甚至上百 kW,液冷技术早已不是数据中心散热的 「备选方案」,而是支撑数字经济向高密度、高能效、高可靠演进的 「必答题」。
而 UQD 接头的规格统一仅仅是一开始,液冷技术已经在数据中心呈现出越来越细分化的趋势,在这种趋势的影响下,会有越来越多的液冷零部件得以实现通用化、标准化,而那个时候,数据中心应用液冷的成本会进一步下降,甚至可能会比风冷的部署成本还要低。(本文首发于钛媒体 APP,作者|张申宇,编辑丨盖虹达)