今天,华为开发者大会2024(HDC 2024)在东莞篮球中心隆重揭幕。华为携手各领域客户及伙伴,全面分享了HarmonyOS、盘古大模型、昇腾AI云服务、GaussDB数据库等最新科技创新成果,以及如何以科技创新为驱动,在鸿蒙生态和大模型技术中心把握新机遇,构建智慧未来的新商业蓝图。
在今天下午举行的大会主题演讲中,华为云CTO张宇昕发表《系统创新x服务重塑 打造AI Native的华为云》主题演讲。他表示,华为云通过AI的全栈系统性创新,并通过AI重塑云服务,从两个方面打造AI Native的云。
华为云CTO张宇昕
一方面是“Cloud for AI”。即通过全栈系统性创新,能够让大模型的数据准备、训练、推理、应用实现全流程的高效率和高性能。华为云全栈系统性创新覆盖了数据中心、云平台架构和基础设施服务,为AI开发提供AI Native的基础设施。
当前云平台在大模型的训练和使用中通常存在“算力墙”“内存墙”“能效墙”等问题。为此,华为云打造了下一代的云基础设施CloudMatrix,改变传统数据中心的架构和算力供给模式,将传统的以CPU为中心的主从架构,演进为多元算力对等全互联架构;并通过高速互联网络协议,将CPU、NPU、GPU 等算力资源全部互联和池化,从而把AI算力从单体算力演进到矩阵算力,开启智能算力新纪元。
同时,针对云平台在大模型的训练和使用中存在的“内存墙”问题,华为云正式发布EMS弹性内存存储服务,基于Memory Pooling专利技术,通过显存扩展、算力卸载、以存代算等三大手段来打破内存墙,释放极致算力。
基于新一代云基础设施和EMS弹性内存存储服务、昇腾AI云服务等创新,华为云已经在贵安、乌兰察布和芜湖,构建了三大AI算力中心CloudOcean;同时也在华北、华东、华南等热点区域部署了AI算力资源池CloudSea;还通过华为云CloudLake和CloudPond边缘云平台,将AI算力推到客户身边,提供最低时延的AI训推服务。由此,华为云打造了云、网、边、端协同的AI Native的算力平台,提供给开发者、客户和伙伴使用。
同时,华为云对AI 开发生产线ModelArts进行升级,在AI开发基础设施和流水线之上,构建了大模型即服务平台 ModelArts Studio,提供百模千态的第三方大模型托管服务,支持对大模型定制开发,并提供相应的工具和行业集成套件,让客户可以方便的将大模型与业务系统结合。
另一方面是“AI for Cloud”。除了系统性创新,华为云还将盘古大模型和华为在产品研发、数据治理、安全防护、业务运维等各个领域积累的数据和经验相结合,“跳了自己的降落伞”,应用在了华为云CodeArts、DataArts、MetaStudio和GaussDB、云安全等系列云服务的智能化上。将华为云的服务重塑和升级,从而更智能、更高效。
在软件开发方面,华为云通过结合AI Agent能力,将CodeArts软件开发生产线从单点智能升级到项目级智能,大幅提升了问题定位率和项目级问题修复成功率,让开发者能轻松实现项目级智能。
在数据治理方面,华为云将盘古大模型和华为多年数据治理经验相结合,让不熟悉IT技术的业务人员、管理人员可以通过自然语言交互的方式,快速获取需要的数据,形成可视化的图表,直接高效的管数、用数。
在数字内容生产方面,华为云将盘古媒体大模型和华为有着深厚积累的音视频编解码、3D模型物理仿真、图形渲染等引擎能力相结合,一起用于AI内容生成。这样生成的数字内容更符合物理世界的规律,并且可以实现任意时长的实时互动,突破了当前AIGC的局限。
在数据库方面,华为云将产品文档、专家知识、运维经验等数据库专业数据和大模型相结合,构建盘古数据库大模型,让GaussDB数据库在开发、测试、迁移、运维等全生命周期实现智能化,显著提升开发人员和DBA的使用效率。
在安全方面,华为云打造了面向安全领域的盘古安全大模型,能够快速、精准地给出安全治理咨询的专业意见,让企业安全更加智能。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。