巴塞罗那当地时间2月26日,在MWC24 巴塞罗那华为产品与解决方案发布会上,华为云CTO张宇昕表示,华为云坚持“AI for Cloud、Cloud for AI”,通过系统性创新,构建电信行业智能云底座,加速行业智能化升级。
华为云CTO张宇昕
AI for Cloud, 盘古大模型重塑电信行业
在AI for Cloud方面,华为云打造了盘古大模型,赋能各行业智能升级,同时也赋能各种云上应用。
张宇昕指出,华为云盘古大模型已经在电信行业一系列场景应用。比如,盘古研发大模型,帮助开发者实现一句对话生成代码、一个按键生成测试用例。盘古电信大模型,实现电信故障处理自动化率达90%,闭环时间从小时级降低到分钟级。盘古数字人大模型,服务电信客服、直播销售等场景,口型准确率大于95%,更真实。面向未来,华为云还将持续打造更多的大模型,重塑电信行业。
Cloud for AI,以系统性创新解决电信行业难题
在Cloud for AI方面,华为云打造了分布式QingTian架构、AI-Native存储、GaussDB数据库、数智融合平台等产品及解决方案,支持跨云、网、边、端部署和使用,通过系统化创新帮助电信行业构建智能的云基础设施。
• AI-Native存储,为大模型提供高带宽、低时延、大容量的海量存储
大模型训练需要庞大参数,带来存储挑战,为此,华为云独创具备220TB超大带宽和微秒级超低时延的内存服务EMS,容纳PB级超大规模参数,让参数存得下。其次,基于SFS Turbo文件存储技术的大并发、高吞吐缓存服务,可提供千万级IOPS,将10亿条数据和元数据的准备时间从100小时缩短至5小时,让数据准备速度快。最后,基于OBS对象存储技术构建的低成本大容量知识湖服务,训练和推理数据的存储成本降低30%,让海量数据存得起。
• GaussDB数据库,为电信行业构建海量数据高效安全处理的坚实底座
GaussDB是企业级分布式数据库,已成功上线近10万个节点。在高可用方面,GaussDB提供双集群强一致方案,实现RPO等于0。高安全方面,它通过了业界最高安全认证CC EAL4+,为客户的数据交易提供了极致的安全。同时,华为云构建了一站式的迁移自动化工具链,实现95%的自动语法转换,让迁移更简单。
• 数智融合平台,为大模型提供更高效、高质量的数据底座
数据是大模型的源泉,电信行业要构建大模型,需要整合B域、O域、M域相关数据,构建统一的数据湖。华为云数智融合平台,为大模型提供更高效、高质量的数据底座。首先,通过统一的数据资源和元数据技术LakeFormation,做到一份数据共享使用,数据0搬迁。其次,通过统一数据治理和安全DataArts Studio,为AI科学家提供高质量合规数据。最后,通过融合DataArts、ModelArts、CodeArts三条生产线能力的协同工作台,让数据和AI工作流pipeline统一编排和调度,以实时数据驱动模型的在线训练和推理。
• 业界首个大模型多云部署形态,为运营商打造Cloud on Cloud方案
华为云盘古大模型的各种能力、以及大模型赋能的各种云服务,都支持不同的部署模式,包括公有云、专属云和混合云。对于希望建立自己专属AI平台和大模型的电信企业,通过华为云Stack混合云平台,可以在企业的数据中心部署AI算力和大模型的关键产品,帮助企业一站式建设专属大模型。
华为云面向运营商也打造了独一无二的Cloud on Cloud方案,提供咨询、端到端运营和一站式迁移能力。
张宇昕表示:“华为云在全球已经服务超过300万家客户,开放超过15万个API,云商店应用已超过1万款。我们希望分享服务客户的经验、创新技术和生态系统,帮助运营商快速构建更丰富的ToB能力,抓住智能升级新商机。”
MWC24巴塞罗那于2月26日至2月29日在西班牙举行。华为展区位于Fira Gran Via 1号馆1H50展区。2024年是5G-A商用元年,华为将与全球运营商、合作伙伴一起,携手共进,促进“网云智”协同创新,推动数智化转型深入发展,繁荣产业生态,加速5G商业正循环,拥抱更繁荣的5G-A时代。欲了解更多详情,请参阅: https://carrier.huawei.com/cn/events/mwc2024
好文章,需要你的鼓励
"支线任务与主线任务"是马斯克经常使用的游戏化比喻。"我确实感觉在华盛顿工作时因为清除浪费和欺诈而受到很多抨击,这是一个有趣的支线任务,"他坦言政府效率改革的重要性,但他强调"得回到主线任务。主线任务就是技术建设。"
泰国SCBX金融集团开发的DoTA-RAG系统通过动态路由和混合检索技术,成功解决了大规模知识库检索中速度与准确性难以兼得的难题。系统将1500万文档的搜索空间缩小92%,响应时间从100秒降至35秒,正确性评分提升96%,为企业级智能问答系统提供了实用的技术方案。
康奈尔大学研究显示,大语言模型驱动的流量转化率比传统搜索高出近9倍。预计到2028年,更多用户将通过ChatGPT等LLM发现产品信息,而非传统搜索引擎。这种转变正在加速发生。LLM流量表现更像个人推荐而非关键词查询,用户查询长度已达23个词,会话时长超6分钟。品牌需要从SEO转向答案引擎优化AEO,确保在LLM对话中被提及,否则将变得不可见。
中科院和字节跳动联合开发了VGR视觉锚定推理系统,突破了传统AI只能粗略"看图"的局限。该系统能在推理过程中主动关注图片关键区域,像人类一样仔细观察细节后再得出结论。实验显示VGR在图表理解等任务上性能大幅提升,同时计算效率更高,代表了多模态AI"可视化推理"的重要进展。