如今,大模型已正式进入商业化落地元年,头部科技公司们正在纷纷加快大模型在各行各业的落地应用布局,然而随着模型参数越来越大、精度越来越高,与之对应的是算力成本的指数式增长,这对AI算力的供给及液冷技术的发展提出了更高的要求。针对这一行业痛点,宁畅给出了“全局智算”的解决方案,以全体系、全液冷、全服务、全场景、全行业、全阶段的战略,应对AI时代的复杂挑战,开拓算力产业发展新局面。
4月28日,来自新能源汽车、人工智能、互联网等多领域的多家企业走进桐乡,探访宁畅AI算力栈和原生全液冷工厂,通过体验宁畅全栈AI系统创新,为AI算力的更新迭代探索发展方向。

随着大模型走向商业化、产业化落地阶段,如何以系统性、全面性来应对用户需求的复杂性,提供更加精准的AI支撑能力,成为算力供给侧的重要课题。宁畅打造的全国首个AI算力栈——NEX AI Lab是配备了128台GPU服务器的智算算力集群,可为多领域用户带来应用场景优化、行业智算定制解决方案,通过免费提供软、硬件服务,带来大模型、数据科学、推荐系统等解决方案工作流的先进体验。目前,已有300+企业申请了算力栈的试用。
数据中心是大模型发展背后的重要保障,液冷服务器扮演了关键角色。宁畅基于在液冷技术和产业生态化上的深厚积累,实现了生产到交付环节的高效运行。不久前,宁畅发布了业内首个实现原生全液冷的通用机架服务器,在液冷技术上实现了重大突破,为液冷数据中心建设提速。
2024年,AI变革的序幕正缓缓拉开,更多的智能化应用将出现在工作与生活中。在时代的复杂挑战中,算力成为稀缺资源,宁畅以“全局智算”的战略以及在液冷技术上的不断突破,强化了算力供给侧改革,帮助企业培养数字化土壤。未来,宁畅将继续秉持创新的使命,为企业提供源源不断的AI支撑力。
好文章,需要你的鼓励
国际能源署发布的2025年世界能源展望报告显示,全球AI竞赛推动创纪录的石油、天然气、煤炭和核能消耗,加剧地缘政治紧张局势和气候危机。数据中心用电量预计到2035年将增长三倍,全球数据中心投资预计2025年达5800亿美元,超过全球石油供应投资的5400亿美元。报告呼吁采取新方法实现2050年净零排放目标。
维吉尼亚理工学院研究团队对58个大语言模型在单细胞生物学领域的应用进行了全面调查,将模型分为基础、文本桥接、空间多模态、表观遗传和智能代理五大类,涵盖细胞注释、轨迹预测、药物反应等八项核心任务。研究基于40多个公开数据集,建立了包含生物学理解、可解释性等十个维度的评估体系,为这个快速发展的交叉领域提供了首个系统性分析框架。
AMD首席执行官苏姿丰在纽约金融分析师日活动中表示,公司已准备好迎接AI浪潮并获得传统企业计算市场更多份额。AMD预计未来3-5年数据中心AI收入复合年增长率将超过80%,服务器CPU收入份额超过50%。公司2025年预期收入约340亿美元,其中数据中心业务160亿美元。MI400系列GPU采用2纳米工艺,Helios机架系统将提供强劲算力支持。
西湖大学王欢教授团队联合国际研究机构,针对AI推理模型内存消耗过大的问题,开发了RLKV技术框架。该技术通过强化学习识别推理模型中的关键"推理头",实现20-50%的内存缩减同时保持推理性能。研究发现推理头与检索头功能不同,前者负责维持逻辑连贯性。实验验证了技术在多个数学推理和编程任务中的有效性,为推理模型的大规模应用提供了现实可行的解决方案。