当前全球正在迈入第四次工业革命,其核心底座就是以算力为基础的数据中心。
数据中心的重要性不言而喻,包括当下最火热的AI大模型,包括我们的出行、支付、视频等,其最终数据交互都在数据中心完成。
中国信息通信研究院发布的《中国综合算力指数(2023年)》白皮书显示,我国在用数据中心算力总规模超180EFLOPS,算力总规模位居全球第二,近5年年均增速近30%。数据中心因其战略性,其设备可靠性、长期稳定运行成为关键。但是数据中心也有个特点,那就是能力越大,其能耗就越大。
随着数据中心建设规模不断扩大,在国家“双碳”目标的背景下,数据中心能耗总量引起社会广泛关注。科智咨询的数据显示,当前国内数据中心占全社会耗电量的比值逐年增加,基本占到全社会用电量的2%-4%。
基于此,至顶科技出品的《对话绿色领军者》栏目,邀请数据中心领域的专家们,来分享如何通过技术创新来推动绿色数据中心建设。本期节目邀请到的嘉宾是来自史陶比尔流体连接器事业部中国区业务总经理邵文强先生。
那么小小的流体连接器它在数据中心起到什么作用,与绿色有什么关系?史陶比尔快速连接器采用了哪些黑科技?一起聆听专家为我们答疑解惑!
散热成为数据中心头号挑战
因为收看视频节目有很多首次关注数据中心产业的新朋友,所以邵文强首先从数据中心能耗特点和运行角度解读了数据中心对于散热的需求。
当前业界采用PUE值来衡量数据中心能耗利用率。PUE,是Power Usage Effectiveness的简写,是评价数据中心能源效率的指标,是数据中心消耗的所有能源与IT负载消耗的能源的比值。
“数据中心的核心成本就是电力能耗,其中数据中心IT设备的占比只有50%,剩下50%都被一些辅助设备、空调系统所占用,这是它的一个比较典型的能耗特点。”邵文强讲到。
在国家“双碳”目标的背景下,工信部《“十四五”信息通信行业发展规划》提出到2025年底,新建大型和超大型数据中心PUE值下降到1.3以下。
于此同时,数据中心稳定运行至关重要。作为全天候运行的数据中心,服务的高质量和连续性对于数字经济发展至关重要。要实现数据中心可靠运行,其运行的温度稳定性成为关键条件。
“数据中心跟人一样,它对于温度、湿度的要求都非常高,比较理想的温度范围是20度-25度,比较理想的湿度范围40%-50%这样一个湿度范围。” 邵文强讲到。
但是,伴随着数据中心核心组件算力芯片密度越来越高,性能越来越好,其功耗也越来高。数据中心散热问题已经是制约数据中心发展的核心挑战。
宏观上,在双碳背景下,大家对于数据中心节能减碳来降低PUE值的需求,另一方面,数据中心要实现稳定运行本身对于散热也有其核心诉求。这就催生了包括液冷技术等助力数据中心节能减碳的关键技术的蓬勃发展。
为什么是液冷而不是风冷?
这是因为风冷散热,不仅散热损耗大,而且散热温度不稳定,而液体导热能力是空气的25倍 ,同等散热水平时,液冷系统约比风冷系统节省电量30%,可以大幅降低数据中心PUE值。“传统的风冷最好的只能把它降到1.3这样一个临界值,但是如果采用液冷技术,可以把PUE指标无限的降低到接近于1的状态,也就是说,整个数据中心机房里面所有的能耗基本上就是用IT设备上,而不是在辅助的这个设备上。”邵文强讲到。
聚焦液冷连接技术——史陶比尔快速连接器
液冷系统运行,意味着液体靠近电子元件,因此在对其可靠性和绝对密封性是至关重要的。需要绝对可靠的高性能解决方案。
“数据中心液冷系统它是非常靠近电的部分,对于密封的要求非常高,如果出现了泄漏,那这个带来的是致命性的,硬件的损坏还是次要的,里面的数据一旦丢失了,损失不可估量”邵文强解释到,同时液冷系统还需要在整个数据中心运行周期保证其长期安全可靠。”
那么什么是连接器?“连接有三种主要形式,一个是机械的连接靠螺栓来实现,电的连接可以靠电连接器来实现,流体的连接是必须需要通过流体连接器来实现,也就是我们这样一个接头。”邵文强通俗易懂的解释了连接器的特点。而液冷快速连接器作为连接服务器节点和Manifold之间的关键组件,是实现冷却回路进行操作时方便回路的断开并保证安全,在液冷系统便捷性和可靠性方面发挥了不可或缺的作用。
史陶比尔在连接器领域有接近70年的历史,从最早做一些简单的压缩空气连接方案,到现在很多的高铁、航空航天以及和核电站里的冷却技术,都是大量使用其产品。早在2010年史陶比尔就进入数据中心液冷领域,作为液冷连接解决方案专家,先后在通用服务器、超算、 5G基站等领域批量应用。

好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。