在数字经济时代,算力资源已经成为新的“能源”,为人工智能、云计算等等科技界前沿领域持续供能。5月9日,数云原力大会2024在神州数码国际创新中心(IIC)盛大召开。在开幕式上,神州数码副总裁、神州数码信创控股董事长韩智敏重磅发布新一代神州鲲泰绿色异构智算中心全液冷整机柜新品,在异构智算的时代,通过软硬件协同创新,为客户提供性能强、能效高、节能环保的新选择。
神州数码副总裁、神州数码信创控股董事长韩智敏
异构智算时代,企业智算落地如何兼顾效率与成本?
我们迎来了一个全新的异构智算时代。在当前的算力环境下,多云异构智算基础设施已成为必然。异构算力资源如何得到充分利用?在混合云部署下,如何应对算力构建选型、部署、运维复杂度和难度的挑战?这个独特的“智算攒机时代”,正在呼唤全新的智算架构。
与此同时,随着大模型和生成式AI加速落地,大量的模型训练和推理任务,在唤醒底层算力海量需求的同时,也对资源利用率提出了巨大挑战。有关资料显示,OpenAI训练GPT-4的MFU(Model Flops Utility)在32%到36%之间。而目前行业MFU利用率的平均水平仅为30%~40%,智算资源利用率尚有很大的提升空间,利用率提升也将为企业节省大量成本。
能耗是另一个大的挑战,算力本身会成为主要的能耗和二氧化碳排放来源。明显可预见的就是,GPU的能耗本身是CPU能耗的2倍以上。根据MIT研究表明,未来人类需要为人工智能相关应用新增10%的能源需求。也就是说,“炼”大模型会比炼钢还费电。对于一个企业来说,每新增一个用于智算的机架,其运行一年约等于增加15w度电,约等于100个家庭的年用电量,约等于1.5吨二氧化碳排放,能耗和碳排放十分巨大。
尽精微,神州鲲泰异“双管齐下”提升算力资源利用率
神州鲲泰推出HISO异构智算调度运营平台、HICA异构智算加速平台,有效解决智算集群间以及集群内面临的复杂异构兼容问题,并显著提升算力资源的利用率。
HISO异构智算调度运营平台,基于云原生技术,整合GPU硬分片和虚拟分片技术,能实现GPU资源虚拟化或池化,完成跨集群之间的算力调度。根据用户业务需求,该平台可以在整个异构智算资源池中匹配优选算力组合,提升GPU服务器集群的资源使用率。HISO异构智算调度运营平台拥有将国内外GPU资源混合组网、混搭调度,算力精细隔离等关键能力,可以“像管理一台GPU主机一样,管理和调度多个集群的GPU资源”。通过GPU容器直通、IaaS卸载,该平台加速了模型加载时间,相比传统方式,模型加载速度提升3倍。同时还能实时收集智算中心全栈、全链路指标,发现和定位软硬件故障,实现算力可观测性。
HICA异构智算加速平台则着重解决集群内部的算力调度优化问题,通过屏蔽集群内底层算力生态差异,突破关键计算效率瓶颈,有效提升算力利用率与可用性。HICA异构智算加速平台通过自研的服务层、中间适配层以及调度编排算法,采用数据并行、模型并行等方式,把并行计算任务进行有效分解,匹配相应的软件栈和算力资源来承接。当GPU资源变化,该平台可以实时动态调度计算子任务并调整模型拓扑和架构,以充分聚合各种算力资源。
HICA异构智算加速平台具有一云多芯特性,支持国内外主流AI芯片,可实现训练推理任务在不同品牌、不同型号芯片组成的智算集群中的混合训练推理,预计可降低20%闲置算力。
此外,根据不同模型、不同算子之间集合通信流特点,该平台还可自适应选择最合适的通信参数,达到更高的通信效率。同时,在不同模型运行过程中,充分考虑存算比要求的不同,HICA异构智算加速平台还可从宏观到微观多个尺度选择最合适的存算比资源加载模型,加速吞吐,降低时延,使MFU提升10~20%,MBU提升5%。
硅光+液冷,一体化交付冷却跳动的电表
随着生成式AI落地对算力需求的暴涨、带宽的狂飙提速,智算中心节点的高能耗痛点日益加剧。而以一个万卡智算中心为例,采用200G接口互联,需要约80000个光模块,其互联所需的能耗则占到总体的5%。节点间互联的高能耗问题也日益凸显。
针对节点间互联的能耗问题,神州鲲泰采用硅光技术,通过单光源多调制器,降低调制器电压,同时采用分布式反馈激光器等一系列技术,有效降低25%的互联能耗。
同时,针对节点的能耗问题,神州鲲泰推出液冷服务器,通过一体化冷板,智能流量调节来提升系统的散热效率,采用负压管线系统,漏液近端探测技术,并联动服务管控系统提升冷却系统的可靠性,有效降低30%的节点能耗。
而为了帮助客户规避接口多、接头复杂、现场实施部署难度大、实施周期长等难题,数云原力大会2024开幕式上,神州鲲泰正式发布“KunTai Pod2000全液冷整机柜”方案产品。采用一体化交付方式,有效降低部署和运维的复杂度的同时,整机柜还能实现100%全液冷及高性价比液冷方案,助力数据中心PUE迈向1.15,并且凭借60KW+的最大单柜功率,实现1.5倍于行业平均水平的能效比,在为客户提供强打算力的同时有效控制能耗成本。
随着2022年底ChatGPT的问世,AI正成为推动创新的核心引擎。现在的IT基础架构已经到了一个由模型和算力相互促进,螺旋上升的新发展阶段。面对新的发展机遇,神州鲲泰从智算中心系统整体性能提升出发,提出了走新智算架构之路的策略,建立了高通量、高并行、高效率,低能耗的多样化智算架构。新的智算架构能够快部署、低投入地突破算力瓶颈,构建出性能更优、成本更低、能效更高的智算中心。未来每个智算中心,每台计算机都将是这样一种新的智算架构,从而实现算力的普惠。
好文章,需要你的鼓励
麻省理工学院研究团队发现大语言模型"幻觉"现象的新根源:注意力机制存在固有缺陷。研究通过理论分析和实验证明,即使在理想条件下,注意力机制在处理多步推理任务时也会出现系统性错误。这一发现挑战了仅通过扩大模型规模就能解决所有问题的观点,为未来AI架构发展指明新方向,提醒用户在复杂推理任务中谨慎使用AI工具。
继苹果和其他厂商之后,Google正在加大力度推广其在智能手机上的人工智能功能。该公司试图通过展示AI在移动设备上的实用性和创新性来吸引消费者关注,希望说服用户相信手机AI功能的价值。Google面临的挑战是如何让消费者真正体验到AI带来的便利,并将这些技术优势转化为市场竞争力。
中科院自动化所等机构联合发布MM-RLHF研究,构建了史上最大的多模态AI对齐数据集,包含12万个精细人工标注样本。研究提出批评式奖励模型和动态奖励缩放算法,显著提升多模态AI的安全性和对话能力,为构建真正符合人类价值观的AI系统提供了突破性解决方案。