6月14日,华为云华东(芜湖)数据中心正式开服,这标志着华为云全国存算网的枢纽节点布局全面完成。而这一芜湖数据中心集群首个开服的项目,也意味着东数西算的长三角枢纽节点可面向华东及中部区域提供超大规模算力服务,将有力推动相关区域的AI产业发展。
华为公司副董事长、轮值董事长徐直军表示,华为云华东(芜湖)数据中心是华为云版图的重要组成部分,能帮助企业使用云上算力,随取随用,技术永新。企业则不必建设数据中心,可以聚焦在自身业务发展上。
华为公司副董事长、轮值董事长徐直军
华为公司常务董事、华为云CEO张平安表示,华为云以系统性创新,重新定义了云基础设施,未来通过全球存算网和昇腾AI云服务,推动“百模千态”的应用创新,并加速千行万业的智能化转型进程。
华为公司常务董事、华为云CEO张平安
多元算力对等池化架构首次应用 可满足超大规模算力需求
张平安介绍,华为云芜湖数据中心规划占地约6000亩,规划了300万台服务器,秉承华为云在节能、AI集群、液冷机房的丰富经验,芜湖数据中心构筑了绿色低碳、安全可靠等技术优势。
同时,为满足超大规模算力需求,芜湖数据中心首次采用了华为云全新研发的多元算力对等池化架构:通过分布式擎天架构实现CPU、NPU、GPU、内存等多样资源统一抽象、池化,从单体算力架构演进到矩阵算力架构,使算力提升50倍;通过超高带宽的Scale Up网络,将资源对等连接起来,打破了单体算力性能和集群线性度瓶颈,可有效提升了大模型的训练效率;此外,通过瑶光智慧云脑可将多种池化资源统一调度管理,实现灵活按需组合,提供百亿到万亿参数模型的最优算力配比。
在绿色低碳方面,芜湖数据中心引入AI技术精准控制温度,采集了数据中心、IT基础设施、云服务的全栈数据集进行训练,首创了云服务感知能效调优技术,有效降低PUE,达到液冷年均PUE低至1.1,低于行业水平,让每100 万台服务器每年节省 10 亿度电,在华东区域能效领先。
此外,芜湖数据中心基于全生命周期高可用设计,包括全球首创机房产品化交付模式、首次引入IoT 技术、应用AI技术主动识别供电、制冷、电池等设备风险,保障业务连续性;并通过了等保4+认证,可保障全生命周期数据安全。
最低2ms时延 高效算力助推中东部打造AI产业高地
芜湖具备良好的数据中心大规模集群条件,光纤网络可直达华东和中部热点城市,网络时延在10ms以内,其中上海、杭州时延在5ms左右,南京更低至2ms,既能满足对时延不敏感的业务,还能满足对时延要求非常高的AI推理、电商、游戏等业务,是长三角汽车、工业、生物医药、高科技等高计算资源消耗企业的优先选择。
中国工程院院士杨善林在华为云芜湖数据中心开服仪式上表示,芜湖数据中心集群建设有了华为公司的全力支持,一定能够促进我国智算产业及其科技战略供应链的高质量发展,为智算产业卓越人才的发现和成长提供肥沃的土壤,为智算产业生态系统的形成和发展提供巨大的动力,为实现“东数西算”战略和培育新质生产力贡献强大的力量。
中国工程院院士杨善林
长久以来,华为云一直努力打造AI算力基础设施,支持百模千态的创新,使能千行万业智能化升级。据透露,华为云已与奇瑞、科大讯飞、信义玻璃、海螺水泥、江淮、大众、亳州医药等一众企业开展了数智化转型、大模型应用的合作,并且打造了一系列领先的“人工智能+”应用标杆。
“中国的产业界非常自豪,华为能够在真正的硬科技算力层面上给世界第二种选择。我们特别需要在国产上更大规模的算力支撑,现在业界能够量产做大模型训练除了英伟达只有华为一家,在推理上已经做到完全对标英伟达。”科大讯飞董事长刘庆峰表示,华为云芜湖数据中心的全球开服,将对通用人工智能和智算发展起到重要的支撑和引领作用。
科大讯飞董事长刘庆峰
奇瑞汽车股份有限公司副总经理戴闯在大会现场表示,华为云全球站点的布局正好和奇瑞基础设施规划相匹配,华为云作为奇瑞最重要的合作伙伴,从智能算力、计算框架再到开发等等都提供了持续演进AI的能力,我们相信华为与奇瑞的强强联合,必将为中国汽车行业谱写新的篇章。
奇瑞汽车股份有限公司副总经理戴闯
以AI全栈能力 加速人工智能+千行万业
基于全国算力一张网,华为云通过即开即用的昇腾云服务,覆盖了全国的“用数”地区,支撑了智能时代大模型训推不断增长的算力需求,有力推动了智能产业发展。
值得一提的是,昇腾云以独有的多级恢复机制和完备的工具链实现了千卡训练连续30天不中断,任务恢复时长小于30分钟,为大模型和AI应用的开发运行提供了资源获取快、模型迁移快、故障修复快、云上推理投资优、就近服务时延优、云上性能优的底座支撑能力。
此外,华为云还通过盘古大模型赋能各行各业,已经原生孵化了30多个行业大模型。
自2023年起,华为正式启动全面智能化战略,持续打造坚实的算力底座,满足各行各业多样性的AI算力需求,做厚“黑土地”,为世界构建第二选择。
“依托华为云构筑的全栈AI能力,通过全球存算网、昇腾AI云服务、盘古大模型等创新技术,我们将为千行万业创新发展注入数智活力,推动中国智能产业蓬勃发展,加速培育具有创新性和竞争力的新质生产力。”张平安说。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。