DesignCon是由 IEEE(电气和电子工程师协会)和其下属的信号处理协会(SPS)共同主办的年度会议和展览,被认为是该领域的顶级技术盛会之一。这个盛会不仅是行业趋势的风向标,更是推动整个电子设计自动化和硬件系统不断向前发展的关键力量。锐捷网络参与发表了800G LPO系统与224G PCB技术相关论文,成为DesignCon 2024展会全场热点。

2024年初始,DesignCon官网展示了来自全球的60多篇论文,其中,锐捷网络与字节跳动等业内伙伴参与合作发布的2篇论文入选DesignCon。这两篇论文分别聚焦于800G线性直接驱动网络系统设计与实施,以及224G PCB系统设计中的低损耗链路解决方案。这些研究不仅为未来800G LPO系统和基于224G PCB硬件系统的大规模生产和商业化应用奠定了坚实的理论基础,更凸显了锐捷网络在高速硬件系统领域的创新技术实力。

DesignCon 2024 的论文演讲现场
论文"800G Linear Direct Drive Network System Design & Implementation"针对数据中心网络系统中LPO模块的应用进行了深入研究。相较于传统DSP模块,LPO在成本、功耗、延迟方面展现优势,但同时也带来器件间信号完整性、光电链路一致性、系统可测试性及可运维性等端到端设计挑战。论文不仅深入剖析了这些挑战,还重点探讨了如何在系统设计中优化高速信道,并通过系统级调整提升端到端信号完整性。此外,论文全面展示了800G LPO系统在单模和多模模块下的实际链路性能,并结合具体应用场景,为LPO系统的实际应用提供了切实可行的建议,旨在推动产业界克服LPO系统产业化所面临的难题。

本论文荣获DesignCon的推荐,被列为关键会议议程(Key Conference Sessions),这体现了组委会对论文内容与学术价值的高度认可。

论文"224G Ultra-low Loss PCB Solution"针对224Gbps速率下高速链路损耗的挑战进行了深入研究。由于传统用于112Gbps速率的PCB和高速材料无法满足更高速率的需求,该研究基于介质和导体损耗理论,从树脂分子结构、增强材料类型和铜箔粗糙度等角度探讨了新一代PCB高速材料的研究方向。论文提出了一种创新的超低损耗PCB解决方案,该方案摒弃了增强材料,采用改性PPO树脂作为传输介质,并结合优化的PCB堆栈设计和新型铜箔粗糙处理工艺。通过仿真和实验验证,该方案在降低插入损耗、提升224G高速PCB性能方面表现出色,与上一代112G速率相比,插入损耗性能提升了21.5%,为224Gbps速率下的PCB损耗设计提供了有力参考。

锐捷网络以其优异的服务实力闻名,致力于提供全面技术支持和迅捷的售后响应,确保网络设备的可靠性,为客户持续创造价值。我们致力于与行业先锋紧密协作,携手推动网络技术的创新。与多方联合论文发布正是我们在技术研发领域深度合作的体现。这种互利共赢的合作模式预示着网络技术的新突破,为整个行业带来创新的无限可能。
在全球互联网流量激增和数据应用需求多样化的当下,锐捷网络,作为AIGC全栈服务专家,不仅专注于网络技术的革新与进步,更致力于以创新思维解决客户面临的挑战,率先推出了AI-Flexiforce和AI-Fabric解决方案。展望未来,锐捷网络将持续投入技术研发和产品创新,致力于为全球数据中心提供更高效、更可靠、更智能的网络服务。在AIGC时代,我们期待助力互联网企业和各行业实现快速成长。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。