今天,AI重塑一切,“人工智能+”首次被写入政府报告,AI产业机遇加速涌现,AI创新大有可为。
“所有的行业必须拥抱AI,我们必须要有澎湃的AI算力,华为云矢志要将技术扎到根,做AI算力的沃土,推动行业智能应用创新,携手伙伴构建核心技术生态,共同加速千行万业的智能化。” 3月15日,在2024华为云&华为终端云创新峰会上,华为公司常务董事、华为云CEO张平安表示。

矢志打造中国AI算力的沃土
对中国来说,算力的紧缺和昂贵已成为智能创新的最大制约因素,而云化算力作为一种高效、灵活、可扩展的解决方案,正逐渐成为突破算力瓶颈的更优选择。昇腾云作为中国唯一全栈自主的AI云算力底座,为百模千态的发展提供了强劲动力。
昇腾云具备强大、高效、即开即用的智能算力资源,企业用户可以一键接入贵安、乌兰察布和芜湖的三大AI算力中心以及30多个分节点,每个数据中心都能提供百EFLOPS的强大算力,足以支撑处理万亿参数的大模型,单作业可使用万卡进行计算,并且数据规模可以达到百PB级的超大规模训练。
昇腾云还具备高效易用的全栈平台能力。它整合了从云化算力、模型开发、模型托管到生态系统的全方位服务。用户可以根据自己的需求选择不同的服务模式,实现训练和推断的一体化。
昇腾云在大规模训练方面也具有显著优势。通过端到端的质量管理和现网保障,结合云上软硬结合的运维体系,可以实现7*24小时的云上运维服务。这种确定性运维能够确保作业的失败率低于5‰,即使大模型使用万卡进行30天不间断的训练时也能保持稳定。
加速重构行业智能应用
AI时代涌现了许多机会,带来了极其丰富的应用场景,张平安认为,中国应更关注AI应用在行业场景的落地,未来千行万业所有领域里的应用场景都将会因为AI而得到重新塑造,无论是大模型还是小模型,都能帮助行业应用实现智能重塑。
华为云盘古大模型“不做诗,只做事”,致力于为行业解难题,目前已广泛应用于各个重要的行业领域,为矿山、铁路、交通、医药、气象等领域带来了质的飞跃。如气象大模型,通过AI推理的方式解决气象的预测难题,提升了1万倍效能。现在使用一张卡就可以预测出来7天的天气,以往可能需要上千台服务器耗费数小时。
此外华为云还专注于很多的工业领域,包括自动驾驶、影视渲染等,华为云希望通过昇腾AI云服务、盘古大模型等帮助千行万业实现AI创新。
携手共筑核心技术生态
在张平安看来,今天的大环境仍然存在很多不确定性,这推动着华为不断深耕基础创新,也因此带来了鸿蒙操作系统、欧拉操作系统、GaussDB数据库、盘古大模型等一系列根技术的创新成果。
张平安表示,华为云立志要打造一个全新的核心技术生态,为中国所有的应用的开发者、创新者提供核心技术支撑。通过构建这个核心技术生态,不仅让中国的AI创新能够生根发芽、蓬勃发展,还进一步为世界提供了新的核心技术选择。
目前,作为鸿蒙、欧拉、昇腾、鲲鹏等生态的云底座,华为云已经聚合全球超过600万开发者,华为昇腾AI云服务可支持超过100个第三方开源大模型。华为云还携手200多家伙伴、300多家客户,一起打造了超过30个行业大模型和数百个模型应用场景,共同构筑了云上最佳的AI创新生态。可以预见,未来将有更多的企业在这个核心技术生态中获益,成就业务创新。
张平安表示,“我们会继续坚持加速智能化、一切皆服务的战略,希望携手更多的企业、开发者,基于核心技术生态构建起自己的智能应用。”
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。