7月4日至7日,2024世界人工智能大会暨人工智能全球治理高级别会议(WAIC 2024)在上海拉开帷幕。作为全球人工智能领域的顶级盛会,本次大会以“以共商促共享 以善治促善智”为主题,吸引了来自世界各地的专家学者、企业领袖、行业精英,共同探讨人工智能的发展方向和前沿技术。

展会期间,锐捷网络的技术专家为大家详细介绍公司的智算网络相关产品和技术,欢迎各位参观者前来锐捷网络展位(展位号H2-E507)沟通交流。

以共商促共享 以善治促善智
大会开幕式,多位全球知名的人工智能领域领导人发表了重要讲话,探讨了人工智能在未来社会中的应用前景及发展方向。锐捷网络数据中心网络事业群国内销售部总经理陶汉君受邀参加开幕式。他表示:“AI时代的到来为各行各业带来了巨大的机遇与挑战,作为行业领先的ICT基础设施及解决方案提供商,锐捷网络将在AI领域持续发力,探索更多应用场景,开发和提供更高效、更稳定的AI网络解决方案和产品,以支持各类人工智能应用的落地和发展。”

锐捷网络AIGC全栈布署 共探AI未来
本次展会上,锐捷网络向参会嘉宾展示了其在AI领域的最新网络解决方案和产品——AI-Fabric智算中心网络解决方案,该方案由128口400G智算网络交换机RG-S6990-128QC和400G LPO光模块组成,支持AILB技术,网络可自动完成流量编排,实现全局负载均衡,训推环境下带宽利用率可达97%。采用400G以太网RoCE组网,实现低时延的无损网络通信,支持最高32K GPU组网规模。利用LPO光模块实现Leaf和Spine间通信,相较传统光模块时延降低90%,功耗降低50%。AI-Fabric智算中心网络解决方案支持AI-ECN技术,可一键完成ECN和PFC等复杂配置的导入,实现快速部署上线。
同时,锐捷网络也展示了另一个面向下一代AI云服务的智算中心网络建设的智算中心网络方案——AI-FlexiForce智算中心网络解决方案。该方案采用NCP+NCF为基础模块横向扩展的三级网络架构,并基于高性能芯片技术,通过将数据流切分成等长的Cell并负载到所有链路,提升网络带宽利用率;基于VOQ+Credit的端到端流控机制实现与业务无关的无损自闭环网络,助力业务算力提升。

此外,锐捷网络还展示了“锐智云服”智算服务解决方案与算力分析平台,旨在通过强大的算力支持,助力客户降低全周期拥有成本、缩短业务上线时间、提升网络运力、降低运维风险,为客户带来绿色、可靠、智能的服务新体验。
锐捷网络数据中心网络事业群DCN BU总经理黄米青表示:“AI时代的机遇非常多,尤其是大模型的训练和推理过程,高度依赖底层网络通信基础设施的传输效率与能力。如何构建一张强健、稳定、高效的万卡集群网络,是确保大模型训练和推理顺利进行的根基。锐捷网络的产品和解决方案正是为了满足这一需求而设计的。锐捷网络的AI-Fabric解决方案不仅在技术参数上有着显著优势,更在实际应用中展现出了卓越的性能和稳定性,能够满足客户在大规模AI计算和应用中的各种需求。锐捷AI-FlexiForce智算中心网络解决方案通过创新性地应用链路负载和拥塞控制技术,根本性解决网络中的拥塞冲突问题,提升GPU之间通信效率,进而提升GPU计算效率,加速企业大模型应用的推出。”
黄米青还指出,锐捷网络创新推出的智算智算资源管理运维的全流程工具——AI算力分析平台,能够实现分布式网络、计算、存储的集群资源管理、训练任务的资源调度。同时,该平台可以基于建模数据进行集群配置优化及故障的监测与异常自动恢复。

展望未来,共创AI美好蓝图
作为GenAI时代的全栈服务专家,锐捷网络拥有20多年的通信网络建设经验,能够提供从咨询、规划、设计、交付到运营管理的全生命周期服务。多年来,锐捷网络已经为多家大型互联网公司客户提供了数据中心网络服务,赢得了广泛的行业认可。
展望未来,锐捷网络将继续秉持创新驱动的发展理念,致力于推动人工智能技术在各个领域的应用落地。公司将不断完善和优化其AI智算网络中心解决方案和产品,以满足不断变化的市场需求和技术发展方向。锐捷网络坚信,通过与各界伙伴的紧密合作,可以共同迎接AI时代的机遇与挑战,推动人工智能技术为社会带来更多积极的改变。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。