[中国,深圳,2024年4月17日] 今日,华为全球分析师大会隆重举行。在“加速迈向网络智能化”主题论坛中,华为数据通信产品线副总裁赵志鹏发表了主题演讲,阐述了华为全面引入AI技术,从组件级、任务级、再到系统级,逐步升级网络能力,推动网络智能化加速落地,与业界伙伴共议Net5.5G产业的发展趋势和未来方向。
2024年,Net5.5G迎来商用元年,网络基础设施的发展方向愈发明确。会上,全球云网宽带产业协会(WBBA)与其成员共同提出了Net5.5G产业倡议,号召建设高速高质量的网络基础设施。同时,中国信息通信研究院曹蓟光也分享了Net5.5G下一代互联网总体架构,标志着网络技术迎来又一次创新热潮。

华为数据通信产品线副总裁赵志鹏发表演讲
华为数据通信产品线副总裁赵志鹏表示:“随着AI技术的飞速发展,网络智能化部署迎来重要拐点,网络需要与AI技术深度融合,使能Net5.5G网络进入智能化时代。我们认为,Net5.5G时代的网络创新应该包含两个方面,一是AI For Networks,数通智能化网络由智能网元、数字孪生和生成式AI三层架构构成,共同支撑起高效、智能的网络运营。智能网元构筑全量数据信息,提升决策效率;数字孪生实现网络实时可视、多维仿真和闭环优化;生成式AI则通过精确理解用户意图,协同各层实现网络智能化服务。二是Networks For AI,AI加持的数通网络解决方案不仅能够精准契合智能化网络需求,更能反哺AI训练效率,助力智算运力大幅提升。”
华为已经在数据通信领域率先落地网络智能化技术,推出Net5.5G智能化网络解决方案,在五大领域全面增强网络能力。在NCE领域,华为打造业界首个生成式AI加持的网络大模型应用Net Master,并全新升级高清网络数字地图,引领行业加速迈向L4自智网络。在园区网络,华为进一步强化了Net5.5G高品质万兆园区网络能力,通过引入智能联合调度、智能天线技术升级无线体验;引入智能多媒体应用调度升级应用体验;引入AI潮汐算法推荐、园区数字地图升级运维体验。在数据中心网络,Net5.5G星河AI数据中心网络通过与智能化深度结合,率先实现智算场景网络0阻塞;与传统以太相比,同等集群规模下AI训练效率提升20%。在广域网络,Net5.5G融合广域网络方案,结合智能化技术和弹性调度算法,可精准识别关键应用并大幅度提升网络运力,以及抵御秒级恶意攻击。此外,在网络安全产品方面,华为推出HiSec SASE解决方案,打造安全智能体,通过智能分析、智能处置、智能检测,实现智能防御,安全运营效率相比传统提升百倍。
作为Net5.5G的国内先行者,科大讯飞基础架构网络总监鲍中帅分享了在数据中心网络领域的创新实践。科大讯飞采用Net5.5G星河AI数据中心网络成功构筑了万卡集群数字底座,后续科大讯飞将和华为持续联合创新,建设更大规模、800GE的智算集群,为智算行业注入新活力。同时,Net5.5G在全球部署也取得了重大进展,土耳其Turkcell、巴西vivo、阿根廷电信等不同区域运营商客户在4月8日圆满落幕的MPLS SD & AI Net网络世界大会上分享了各自在Net5.5G的商用实践进展,并呼吁全球运营商携手推动Net5.5G生态成熟,加速Net5.5G商用落地。
最后,赵志鹏再次呼吁全行业共同迎接Net5.5G产业代际,全面引入智能化技术,规模部署网络数字孪生,携手孵化AI技术创新,加速迈向网络智能化。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。