作为AI全栈网络服务专家,锐捷网络受邀出席本次大会,从架构规划、部署实施以及运维优化三方面分享了AIGC智算中心网络解决方案。锐捷网络致力于为企业提供覆盖IaaS到PaaS的全栈产品及解决方案,致力于提升通信带宽利用率,降低动态时延以及实现无损的网络传输,以提升AI集群网络通信性能,帮助客户实现生产效率的飞跃和运营成本的优化。
近年来,ChatGPT、Sora为代表的大模型取得技术突破,掀起新一轮人工智能热潮,数据量爆炸式增长,算力需求激增。各国积极出台相关政策,加速推动AI产业的布局和发展。中国亦推出《关于支持建设新一代人工智能示范应用场景的通知》等相关政策引导AI产业更健康有序发展。算力网络作为算力主要载体,能够有力支撑更为复杂、深入的AI算法和模型训练,进而推动AI技术的持续创新与应用拓展,加速AI新时代发展。
作为行业领先的网络基础设施及解决方案提供商,锐捷网络积极响应国家“东数西算”重大战略,持续优化算网布局,积极推进AIGC重点方向发展,用智算网络等来赋能新质生产力,推动数字经济与实体经济融合发展。同时,锐捷网络获评“2024年AIGC智算网络最佳解决方案”。
锐捷网络解决方案经理刘洋进行了题为《面向下一代AIGC智算中心网络方案的思考》的主题演讲,阐述了AIGC大模型的发展趋势及关键诉求,介绍了两种AIGC智算中心网络解决方案。
解决数据中心网络拥塞
AI-Fabric解决方案
锐捷网络AI-Fabric解决方案通过三级组网的方式可以满足3.2万个400G端口接入需求,支撑32K块GPU卡的集群规模。该方案从架构规划、部署实施以及运维优化三个层面进行带宽利用率的提升。从架构规划来看,采用多轨网络的接入方式来匹配流量模型,设计各层级 1:1 的低收敛比来优化机间通信,并通过端网协同、在网计算等技术来规划整体的网络。在部署实施阶段,目前更多业务还是会部署RDMA应用,为了确保业务的吞吐效率,网络需要实现无损转发,类似PFC、ECN、QoS 等水线的调优就显得尤为重要,另外对于网络中负载的均衡性也需要考虑模式和算法的优化。最后考虑运维方面,在网络部署后的运行当中,方案实时关注网络关键指标的监控,以及对丢包重传等周期性事件的订阅和告警上报,并且结合智能运维平台去做流控水线的动态调优,来保证网络宽用率更大化。
AIGC”任督二脉“
AI-Flexiforce解决方案
锐捷网络AI-FlexiForce智算中心网络解决方案采用NCP+NCF为基础模块横向扩展的三级网络架构,并基于高性能芯片技术,通过将数据流切分成等长的Cell并负载到所有链路,提升网络带宽利用率;基于VOQ+Credit的端到端流控机制实现与业务无关的无损自闭环网络,助力业务算力提升。
锐捷AI-FlexiForce智算中心网络解决方案通过创新性地应用链路负载和拥塞控制技术,根本性解决网络中的拥塞冲突问题,提升GPU之间通信效率,进而提升GPU计算效率,加速企业大模型应用的推出。
同时,在研发AI-FlexiForce智算中心网络解决方案时,打造了分布式OS,意在实现分布式方案架构的统一管理基础上,最大程度降低系统性风险,提升AI训练网络的长期稳定运行。
迈向高速光通信领域
400G/800G LPO光模块
本次展会,锐捷网络展示了基于LPO技术的400G和800G自研光模块,标志着公司在高速光通信领域的技术实力和创新能力得到了显著提升。
本次展会,锐捷网络展示了基于LPO技术的400G和800G自研光模块,标志着公司在高速光通信领域的技术实力和创新能力得到了显著提升。
与传统光模块相比,LPO技术利用交换芯片Serdes的DSP能力,在光模块中不再集成DSP芯片,只保留Drvier和TIA芯片,且TIA、Driver芯片不需要专门优化即可实现优异的传输性能,可以为客户带来显著的收益:
• 功耗下降50%:LPO光模块功耗相较普通光模块下降50%。低功耗不仅节省电力开销,而且能够减少模块内组件的发热,提升产品寿命。
• 客户成本降低25%:光模块中不使用DSP组件,从而可以将客户光模块采购成本下降。
• 时延降低90%:传统集成DSP组件的光模块传输时延约100ns,而基于LPO技术的光模块传输时延小于10ns。
在全球互联网流量不断增长和数据应用需求日益多样化的背景下,锐捷将持续精进智算中心网络解决方案,携手阿里巴巴、腾讯、字节跳动、百度等多个互联网头部客户,在降低时延、提高在网计算性能、实现端网融合等方面持续突破。未来,锐捷网络还将通过持续的技术研发和产品创新,继续为全球的数据中心提供更高效、更可靠、更智能的网络解决方案,在AIGC时代助力互联网及各行业实现快速发展,携手探索GenAI时代的每一个机遇。
好文章,需要你的鼓励
K Prize是由Databricks和Perplexity联合创始人推出的AI编程挑战赛,首轮比赛结果显示,获胜者巴西工程师Eduardo Rocha de Andrade仅答对7.5%的题目就获得5万美元奖金。该测试基于GitHub真实问题,采用定时提交系统防止针对性训练,与SWE-Bench 75%的最高得分形成鲜明对比。创始人承诺向首个在该测试中得分超过90%的开源模型提供100万美元奖励。
T-Tech公司研究团队开发了SAE Boost助推器系统,通过训练专门的"错误补偿器"来增强AI理解工具对专业领域的理解能力。该系统在化学、俄语和外交等领域测试中显示出显著改进效果,同时完全保持原有通用能力。这种模块化设计为AI系统的持续优化提供了安全可靠的路径,对AI可解释性研究具有重要意义。
阿里巴巴通义千问团队发布开源编程模型Qwen3-Coder-480B-A35B-Instruct,专门用于软件开发辅助。该模型采用混合专家架构,拥有4800亿参数,支持25.6万token上下文长度,可在数秒内创建完整功能应用。在SWE-bench基准测试中得分67.0%,表现优于GPT-4和Gemini。模型基于Apache 2.0开源许可,企业可免费使用。AI研究者称其可能是目前最佳编程模型,特别适合企业级代码库理解、自动化代码审查和CI/CD系统集成。
斯坦福大学研究团队开发出革命性AI系统,能够像生物学家一样"看懂"蛋白质三维结构并预测功能。该系统通过多层次分析方法,在蛋白质功能预测方面达到90%以上准确率,为新药开发和精准医疗开辟新道路。这项技术不仅加速了蛋白质研究进程,更为解决复杂疾病提供了强大的AI助手,预示着人工智能与生物医学融合的美好前景。