Lightbits声称在使用Supermicro服务器硬件进行的基准测试验证中,展示了容器化事务处理领域最快的共享块存储性能。
Lightbits提供通过NVMe/TCP访问的分解式虚拟SAN块存储,可在本地或Azure、AWS、Oracle云端运行。在此次测试中,系统运行在Supermicro CloudDC A+ Server AS-1116CS-TN服务器的本地环境中。两家公司已制定参考架构,涵盖使用Lightbits与Supermicro和Intel(但不包括AMD)部署高性能、可扩展Kubernetes服务器系统。
Lightbits联合创始人兼首席战略官Kam Eshghi表示:"我们联合测试中验证的卓越性能,结合新的Kubernetes参考架构,为客户提供了现代化数据基础设施的强大、灵活且经济高效的路径。"
Supermicro解决方案与技术副总裁Lawrence Lam说:"我们已验证H14服务器与Lightbits存储的组合,并发布参考架构,展示该组合在I/O性能、低延迟响应性和硬件效率方面的显著进步。该解决方案为客户提供用于事务处理和其他高要求工作负载的最高性能共享块存储。"
基准测试配置为:1个AMD EPYC 9575F处理器(64核心,128线程),768GB DDR5(6400MT/s)内存,一个Mellanox MT2910 ConnectX-7网卡,每台服务器配置8个三星3.84TB NVMe SSD(PM1743)。操作系统为Rocky Linux 9.4。
Supermicro和Lightbits表示其基准测试显示:
4K随机读取达到360万IOPS——适用于金融交易平台和实时分析等性能敏感应用。
4K随机写入达到160万IOPS——满足日志记录、日志管理和快速更新频繁变化数据集的需求。
128K顺序读取带宽达54.7GBps——为AI/机器学习训练、视频渲染和科学模拟等需要大块读取的工作负载提供高吞吐量数据传输。
128K顺序写入带宽达16.7GBps——适用于生成大型顺序数据流的应用,包括数据摄取管道和数据仓库。
1RU Supermicro CloudDC A+服务器具有PCIe Gen 5总线和8个热插拔NVMe SATA/SAS驱动器槽。它最多可支持8个M.2 NVMe PCIe Gen 4 SSD,容量从400GB到3.8TB不等,最大可达30.4TB。
Lightbits和Supermicro声称其参考架构可以"无缝将Lightbits存储集成到现有Kubernetes部署中,无需大幅重新架构,为容器化应用和KubeVirt虚拟机提供向软件定义高性能块存储的清晰升级路径"。客户可获得即用型优化系统,"从第一天起就最小化部署复杂性并最大化性能,适用于金融交易平台、实时分析、AI/机器学习训练、电子商务、数据摄取管道和仓库以及科学模拟等广泛用例。"
参考架构验证总共使用6台物理服务器——3台专门运行Lightbits存储节点,3台配置为Kubernetes控制平面和工作节点。
从参考架构文档中发现,它同时涉及Ceph和Lightbits,两者都提供块存储软件。文档指出:"Ceph提供弹性和可扩展的存储解决方案,适用于需要传统文件和对象存储能力的数据密集型应用...同时,Lightbits引入针对NVMe/TCP优化的高性能软件定义存储层,提供低延迟和高吞吐量块存储能力。"实际上,根据工作负载要求,Lightbits补充或替代Ceph传统提供的块存储功能。
Lightbits软件现已在Supermicro CloudDC A+ Server AS-1116CS-TN上可用。
据了解,还有第二个AMD驱动的参考架构。Lightbits的发言人表示:"我们在AMD和Intel平台上都验证了Lightbits,以展示跨不同架构的通用性:AMD(H14)专注于单插槽设置,利用高核心密度和效率实现成本优化的高性能场景;Intel(K8)选择双插槽设置,因其广泛的企业采用率、平衡的性能和与多样化工作负载的兼容性。"
关于在参考架构文档中同时使用Ceph和Lightbits的原因,发言人解释:"Ceph和Lightbits的结合使用解决了Kubernetes部署中互补的存储需求。Ceph设计为可扩展的分布式存储,适用于延迟敏感性较低的工作负载,适合对象、归档和大规模数据保留。Lightbits提供高性能、低延迟的NVMe/TCP块存储,适用于要求苛刻的Kubernetes工作负载,如事务数据库和实时分析。"
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。