5月30日,在“全局智算”战略下,宁畅正式发布“全栈全液”AI基础设施方案,在业内首先实现了“全栈全液”的智算中心建设能力,助推智算中心发展迈入新阶段。
软硬兼备 + 全栈全液,重塑智算中心新形态
在以大模型为焦点的新一轮 AI竞赛中,算法协同优化、数据处理能力、以及与特定行业应用的融合度,都成为推动大模型实际落地的核心因素。

为此,宁畅构建了以底层硬件到顶层应用平台的全栈AI系统环境。软件层上以AI算子全栈优化能力,为AI 业务提供并行加速、性能分析、模型开发优化等服务支持,帮助用户极速推进AI应用开发及管理;硬件层上实现GPU服务器与GPU卡的灵活组合,散热方式上可选液冷、风冷或风液混合,实现性能与能效的绝佳平衡。宁畅近期推出的业内首个实现原生全液冷的通用机架服务器,从原生全液冷、大解耦、高能效三方面发力,助力数据中心实现了“全栈全液”新生态。
部署经验 + 先享后付,打造“性价比”天花板
如今,各行各业对于智能计算的需求呈指数式增长。宁畅“全栈全液”AI基础设施方案已为区域智算中心、互联网、车企、高校等各行各业的客户提供了服务。
从实际应用场景来看,宁畅“全栈全液”AI基础设施方案可支持大模型落地所需的计算、存储、网络、建设、管理、应用及液冷等全方位需求,能够为智算中心的构建、以及大模型落地过程中面临的问题,提供强有力的支持,打造企业/行业级智算中心标准方案。

随着算力成为稀缺资源,宁畅从客户角度出发,提供了“先享后付”的算力购买方案。目前,宁畅AI算力栈已开放免费试用,现已有50+用户预约试用。该算力栈是一个包括128台GPU服务器的千卡级别算力集群,标准化智算中心建设方案囊括了羽量级128、轻量级256、中量级512、重量级1024四个等级,实现全量级灵活扩展,给了用户极大选择空间。用户可在试用中尝试不同的业务组合、方案框架,以便找到“最优性价比”的智算中心建设方案。

智算中心是AI时代的“水电站”,在推动行业数字化转型、促进AI产业化落地的重要性不言而喻。宁畅将持续为客户和伙伴提供智算中心建设的新势能,共创更美好的AI未来。
好文章,需要你的鼓励
国际能源署发布的2025年世界能源展望报告显示,全球AI竞赛推动创纪录的石油、天然气、煤炭和核能消耗,加剧地缘政治紧张局势和气候危机。数据中心用电量预计到2035年将增长三倍,全球数据中心投资预计2025年达5800亿美元,超过全球石油供应投资的5400亿美元。报告呼吁采取新方法实现2050年净零排放目标。
维吉尼亚理工学院研究团队对58个大语言模型在单细胞生物学领域的应用进行了全面调查,将模型分为基础、文本桥接、空间多模态、表观遗传和智能代理五大类,涵盖细胞注释、轨迹预测、药物反应等八项核心任务。研究基于40多个公开数据集,建立了包含生物学理解、可解释性等十个维度的评估体系,为这个快速发展的交叉领域提供了首个系统性分析框架。
AMD首席执行官苏姿丰在纽约金融分析师日活动中表示,公司已准备好迎接AI浪潮并获得传统企业计算市场更多份额。AMD预计未来3-5年数据中心AI收入复合年增长率将超过80%,服务器CPU收入份额超过50%。公司2025年预期收入约340亿美元,其中数据中心业务160亿美元。MI400系列GPU采用2纳米工艺,Helios机架系统将提供强劲算力支持。
西湖大学王欢教授团队联合国际研究机构,针对AI推理模型内存消耗过大的问题,开发了RLKV技术框架。该技术通过强化学习识别推理模型中的关键"推理头",实现20-50%的内存缩减同时保持推理性能。研究发现推理头与检索头功能不同,前者负责维持逻辑连贯性。实验验证了技术在多个数学推理和编程任务中的有效性,为推理模型的大规模应用提供了现实可行的解决方案。