Lightbits声称其在使用Supermicro服务器硬件进行的基准验证中,为容器化事务处理展示了性能最快的共享块存储。
Lightbits提供通过NVMe/TCP访问的分解式虚拟SAN块存储,可在本地或Azure、AWS、Oracle云环境中运行。在此次测试中,系统运行在Supermicro CloudDC A+ Server AS-1116CS-TN服务器的本地环境中。两家公司联合制定了参考架构,涵盖使用Lightbits与Supermicro和Intel(但不包括AMD)部署高性能、可扩展Kubernetes服务器系统。
Lightbits联合创始人兼首席战略官Kam Eshghi表示:"我们联合测试中验证的卓越性能,结合我们新的Kubernetes参考架构,为客户提供了现代化数据基础设施的强大、灵活且经济高效的路径。"
Supermicro解决方案与技术副总裁Lawrence Lam说:"我们已经验证了H14服务器与Lightbits存储的配合,并发布了参考架构,展示了这一组合如何在I/O性能、低延迟响应性和硬件效率方面实现重大进步。该解决方案为客户提供了用于事务处理和其他高要求工作负载的最高性能共享块存储。"
基准测试配置为单台服务器,配备1×AMD EPYC 9575F(64核心,128线程)、768GB DDR5(6400MT/s)内存、Mellanox MT2910 ConnectX-7(单实例)网卡,以及每台服务器8×三星3.84TB NVMe SSD(PM1743)。操作系统为Rocky Linux 9.4。
Supermicro和Lightbits表示其基准测试显示:
4K随机读取360万IOPS——适用于金融交易平台和实时分析等性能敏感应用。
4K随机写入160万IOPS——满足日志记录、日志处理和快速更新频繁变化数据集的需求。
128K顺序读取带宽54.7GBps——为需要大块读取的工作负载提供高吞吐量数据传输,如AI/机器学习训练、视频渲染和科学模拟。
128K顺序写入带宽16.7GBps——适用于生成大型顺序数据流的应用,包括数据摄取管道和数据仓库。
这款1RU Supermicro CloudDC A+服务器采用PCIe Gen 5总线和8个热插拔NVMe SATA/SAS驱动器托架。它可支持多达8个M.2 NVMe PCIe Gen 4(非Gen 5)SSD,容量范围从400GB到3.8TB,最大可达30.4TB。
Lightbits和Supermicro声称其参考架构能够"无缝将Lightbits存储集成到现有Kubernetes部署中,无需大幅重新架构,并为容器化应用和KubeVirt虚拟机提供软件定义高性能块存储的明确升级路径"。这表明仍需进行一些重新架构。客户可获得一个交钥匙优化系统,"最大限度降低部署复杂性,从第一天起就为金融交易平台、实时分析、AI/机器学习训练、电子商务、数据摄取管道和仓库、科学模拟等广泛用例最大化性能"。
参考架构验证总共使用了6台物理服务器——3台专门运行Lightbits存储节点,3台配置为Kubernetes控制平面和工作节点。
可通过链接请求参考架构文档。我们发现该文档涉及Ceph和Lightbits两种块存储软件。文档称:"Ceph提供了弹性且可扩展的存储解决方案,非常适合需要传统文件和对象存储功能的数据密集型应用...同时,Lightbits引入了针对NVMe/TCP优化的高性能软件定义存储层,提供低延迟和高吞吐量块存储功能。"实际上,根据工作负载要求,Lightbits补充或替代了传统上由Ceph服务的块存储功能。
Lightbits软件现已可在Supermicro CloudDC A+ Server AS-1116CS-TN上使用。
后续了解到还有第二个AMD驱动的参考架构。Lightbits发言人告诉我们:"我们在AMD和Intel平台上都验证了Lightbits,以展示跨不同架构的多功能性":
AMD(H14):专注于单插槽设置,利用高核心密度和效率实现成本优化的高性能场景。
Intel(K8):选择双插槽设置是因为其在企业中的广泛采用、平衡的性能以及与多样化工作负载的兼容性。
"每次验证都突出了灵活性,使客户能够自信地选择最适合其运营需求的硬件。"
发言人还解释了为什么参考架构文档中同时使用Ceph和Lightbits:"Ceph和Lightbits的组合使用解决了Kubernetes部署中的互补存储需求。"
Ceph:设计为可扩展的分布式存储,适用于对延迟不太敏感的工作负载,适合对象、归档和大规模数据保留。
Lightbits:提供高性能、低延迟的NVMe/TCP块存储,非常适合要求苛刻的Kubernetes工作负载,如事务数据库和实时分析。
"将它们一起部署创建了全面的解决方案,满足Kubernetes环境中容量驱动的需求和性能关键要求。"
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。