10月12日下午,2023中国移动全球合作伙伴大会“算网融百业 数智赢未来”政企分论坛开幕,移动云重磅发布COCA创新成果、OpenCOCA开源项目和《OpenCOCA白皮书》,助力构建未来开放式算力架构。
论坛上,围绕“创新引领”“应用绽放”“生态共赢”三大主题,众多业界专家展开深入探讨与分享,为中国数字新基建出谋划策。中国移动集团总经理董昕表示,深入贯彻党和国家的重要指示,中国移动系统构建新型信息基础设施,创新打造新型信息服务体系,加速各行各业数智化转型,促进智能化、绿色化、融合化发展,为做强做优做大我国数字经济、以信息化助力中国式现代化贡献更大力量。
中国移动政企事业部总经理陈怀达发表题为《数智引领启新篇,行业创新赢未来》的主题演讲。他指出,践行“为国建云”使命,移动云近年来取得了跨越式的发展,正加速朝一流云服务商迈进。未来,作为中国移动创新发展的关键引擎,移动云将继续以高起点建设云基础设施、高标准研发云全栈产品,筑牢一流信创云底座,推进算网服务走深走实,助力实现创新发展新高度。
为践行“为国建云”使命,解决关键技术卡脖子问题,移动云发力算力网络的底层技术,于今年4月推出COCA(Compute on chip Architecture)软硬一体片上计算架构(以下简称COCA)。COCA由DPU、GPU、HPN三大核心模块构成,旨在重塑计算架构、融通算力生态、提供海量AI算力,打造高性能算力基础设施。
本次政企论坛,移动云重磅发布了COCA的多项阶段性成果,以更宏大的算力、更高效的链接、更可靠的能力,赋能千行百业数智化转型升级。
打造DPU“芯”生态,重塑计算架构
在DPU方面,移动云自研磐石DPU,重新定义DPU硬件和软件标准体系。会上发布的磐石DPU4.0网络吞吐能力提升至400Gbps,存储IO能力提升至400万,新增可编程的RDMA能力,支持带宽达到200Gbps,同时功耗降低50%,整体达到业界领先水平。
繁荣GPU生态,融通算力生态
在GPU方面,移动云打造COCA AI算力融通平台,并牵头建设“一云多芯”信创实验室。目前,该平台可提供200余个标准的核心算子接口,与多家合作伙伴开展深度适配。用户可实现一次编码在多家GPU平台上执行,大大降低研发和迁移成本。
目前,COCA AI算力融通平台已实现AI算力资源池化、具备CPU与GPU解耦订购能力,推理场景下用户成本可降低50%以上。
突破智算互联瓶颈,提供海量AI算力
在HPN方面,移动云推出面向RoCE的“乌蒙”高性能网络(COCA-HPN),原创“乌蒙”拥塞流控协议,实现了高精度的拥塞信号检测能力,可降低拥塞时延,提升集群算效。在智算中心的典型“中长流”场景下,集群网络性能可提升48%,还可支持万卡级智算集群组网能力。
移动云希望与更多合作伙伴一起以COCA-HPN为平台,联合创新端网协同的高性能网络技术,攻克业界“卡脖子”的大规模集群互联难题。
秉承共赢理念,构建OpenCOCA开放技术生态
秉承“开放+共赢”的理念,移动云开放COCA核心成果。论坛现场,移动云举行了OpenCOCA开源项目暨《OpenCOCA白皮书》发布仪式,并倡议国内云产业相关企业、机构加入OpenCOCA,联创高性能算力技术,形成产业联盟,共筑高性能算力基础设施,共促数字产业及技术生态成熟,共助中国数字经济繁荣昌盛。
论坛上,移动云还为技术生态优秀合作伙伴代表举行了颁奖仪式,进一步牵引产业能力汇聚,共创云端合作新局面,共攀产业发展新高峰。
作为网络强国、数字中国、智慧社会建设的主力军,移动云将继续加快算力网络基础设施建设与关键核心技术自主可控,促进软硬生态架构逐步走向开放,助力打造国家级自主可控的算网基础设施,迈向中国式现代化建设的新征程。
好文章,需要你的鼓励
在迪拜Gitex 2025大会上,阿联酋成为全球AI领导者的雄心备受关注。微软正帮助该地区组织从AI实验阶段转向实际应用,通过三重方法提供AI助手、协同AI代理和AI战略顾问。微软已在阿联酋大举投资数据中心,去年培训了10万名政府员工,计划到2027年培训100万学习者。阿联酋任命了全球首位AI部长,各部门都配备了首席AI官。微软与政府机构和企业合作,在公民服务和金融流程等领域实现AI的实际应用,构建全面的AI生态系统。
查尔斯大学和意大利布鲁诺·凯斯勒基金会的研究团队首次系统性解决了同声传译AI系统延迟评估的准确性问题。他们发现现有评估方法存在严重偏差,常给出相互矛盾的结果,并提出了YAAL新指标和SOFTSEGMENTER对齐工具。YAAL准确性达96%,比传统方法提升20多个百分点。研究还开发了专门的长音频评估工具LongYAAL,为AI翻译技术发展提供了可靠的测量标准。
苹果与俄亥俄州立大学研究人员发布名为FS-DFM的新模型,采用少步离散流匹配技术,仅需8轮快速优化即可生成完整长文本,效果媲美需要上千步骤的扩散模型。该模型通过三步训练法:处理不同优化预算、使用教师模型指导、调整迭代机制来实现突破。测试显示,参数量仅1.7亿至17亿的FS-DFM变体在困惑度和熵值指标上均优于70-80亿参数的大型扩散模型。
印度理工学院团队构建了史上最大规模印度文化AI测试基准DRISHTIKON,包含64288道多语言多模态题目,覆盖15种语言和36个地区。研究评估了13个主流AI模型的文化理解能力,发现即使最先进的AI也存在显著文化盲区,特别是在低资源语言和复杂推理任务上表现不佳,为构建文化感知AI提供了重要指导。