Quobyte公司首次公开发布了其在同名并行文件系统上运行MLPerf存储基准测试的结果,声称在关键的3D-Unet基准测试中取得了显著优势。
该基准测试是ML Commons去年首次推出的三项测试之一,用于衡量存储系统在模型训练期间的数据供应能力。
毫无疑问,这是确保昂贵且耗电的GPU得到充分利用的关键因素——目前GPU的利用率很少接近理想水平。
Quobyte表示:"在三个基准测试中,3D U-Net特别有趣,因为它最依赖于存储性能。"
正如Quobyte联合创始人兼首席执行官Bjorn Kolbeck所说,这是真正"考验和折磨存储系统"的测试。
Quobyte指出,要通过测试,"MLPerf存储要求利用率达到90%或以上。利用率直接转化为特定的吞吐量,因为它决定了工作负载发出IO请求的速度。"
"目标是以最少的存储资源集合(因为它们需要金钱、占地面积和能源)支持每个客户端8个GPU在高利用率(90%以上)下运行,"该公司补充道。
对于3D U-Net,"每个全速运行的模拟H100 GPU需要大约2.8 GBps的吞吐量。使用DGX的200G网络,这意味着最多只能保持7个GPU在90%以上的利用率。"
测试配置如何?
Quobyte的设置是一个八节点集群,通过2x100G RoCE网络连接,包含四台客户端机器(Supermicro)和四台服务器机器(Supermicro),每台配备4个PCI 4.0 NVM。
对于MLPerf存储v1.0.1版本,使用H100,Quobyte表示能够支持"每个客户端(每个DGX)6个GPU在90%效率下运行"。该公司的目标是通过配备更快CPU的客户端机器,将这一数字提升到7个GPU,并实现更高的利用率。
"在服务器端,我们通过四台通过200G RoCE连接的标准服务器提供这种性能。这种设置提供高可用性,并可以与更多DGX客户端线性扩展。"
Quobyte声称这使其成为MLPerf 3D-Unet测试中最快、最高效的文件系统,支持每台客户端机器最多的GPU数量。同样重要的是,该公司还声称实现了每性能单位最低的成本和能耗。
联合创始人兼首席技术官Felix Hupfeld说:"我们的不同之处在于在另一端需要多少资源来提供这种性能。饱和GPU所需的资源会转化为更多功耗、更多占地面积,当然还有更多成本。"
虽然英伟达在AI世界中备受关注,但Kolbeck表示存储至关重要,而基于NFS的系统从未为扩展而设计。
他继续说道,选择错误的系统,"你就无法获得GPU所需的效率,然后你就被这个解决方案困住了。"
"你在存储系统上花费数百万美元,却无法提供GPU所需的性能,基本上毁掉了GPU投资。"
MLPerf存储基准测试的新版本即将发布。虽然Quobyte没有参与去年的"官方"提交轮次,但该公司表示这次完全打算参与。
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
上海交通大学研究团队发布了突破性的科学推理数据集MegaScience,包含125万高质量实例,首次从12000本大学教科书中大规模提取科学推理训练数据。该数据集显著提升了AI模型在物理、化学、生物等七个学科的推理能力,训练的模型在多项基准测试中超越官方版本,且具有更高的训练效率。研究团队完全开源了数据集、处理流程和评估系统。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。