近日,ArchSummit全球架构师峰会在深圳隆重开幕,本次大会以“智能进阶. 架构重塑”为主题,探讨AI浪潮下,企业架构如何适应大模型和云原生的时代趋势,寻找既有应用成果又有成本效益的解决方案。国内外100余名顶尖专家齐聚一堂,围绕AI、大模型、云原生等话题展开深度交流。天翼云云网产品事业部研发专家黄坚受邀参会,并在“智算平台建设与应用实践”专题会上发表主题演讲,分享了天翼云在超大规模智算集群运维及管理方面的创新思路和实践经验。

天翼云云网产品事业部研发专家 黄坚
随着大模型风潮来袭,加快建设超大规模智算集群,已成为增强多元算力供给的重要措施。与传统云原生大规模场景相比,超大规模智算集群的管理复杂度和难度更高。黄坚表示,当前,在充分发挥超大规模智算集群的算力方面,整个行业还面临着诸多挑战:
● 首先,智算业务与底层算力高耦合。在基于transformer衍生出来的智算生态中,要求最大化使用底层算力,这就要求从业者既要懂算法,又要懂算力,同时需要具备结合算法算力的工程化思维,从算子优化、算子融合、并行计算等多个方向提升算力的使用效率。
● 其次,硬件无明确异常指标,定位难度大。虽然通过监控可以覆盖一些明显的软硬件问题,但更多类似于光模块故障等问题,需要综合光衰、温度、功耗等多个维度,并结合业务异常,才能实现准确定位。
● 再次,日常管理复杂度高。超大规模智算集群规模大、数量多,如何实现百万量级元器件的系统化、模块化、周期化管理,并与业务方进行有效协同,是运维的难点。
作为云服务国家队,天翼云加强核心技术自主研发,积极探索超大规模智算集群运维之道,不断升级产品和生态矩阵,为AI开发者提供“供得上、用得起、用得好”的智算服务。
在平台层面,天翼云全新升级一体化计算加速平台“云骁”,“云骁”具备超大规模集群管理、运营和算力加速能力,可提供通智超一体化服务,集“异构计算+高速存储+无损网络+算力加速+高效运营”五大能力于一体,让智算更快、更稳。
在算力层面,天翼云加速推进多层次智算算力布局,打造万卡级超大规模智算中心,满足快速增长的智算算力需求。目前,天翼云上海临港国产万卡算力池已正式启用,这不仅是国内首个投入正式运营的国产单池万卡液冷算力集群,也是业内领先的全国产化云智一体公共智算中心,创新性采用网络中置、算力分层的“魔方”型组网,实现了单一集群内万卡高速互联,满足万亿级参数大模型训练所需的多机多卡并行、高吞吐无损通信等需求。
未来,天翼云将持续坚持科技创新,深耕云智一体,不断夯实国云智算底座,为数字经济发展与数字中国建设注入澎湃动能。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。