WEKA 宣布使用 HPE PCIe Gen 5 硬件在 SPECstorage Solution 2020 基准测试的全部五个测试场景中均获得最佳成绩。
该基准测试包含五个工作负载场景:AI 图像处理 (代表 AI TensorFlow 图像处理环境)、电子设计自动化 (EDA)、基因组学、软件构建和视频数据采集 (VDA)。测试结果包括作业数或构建数、整体响应时间 (ORT) 以及供应商在结果网页上提交的其他详细指标。WEKA 在 2022 年 1 月使用 Samsung SSD 提供的本地部署解决方案就已经获得了大部分最佳成绩。随后在 2024 年 3 月,它再次在五个类别中的四个中击败其他供应商。现在,WEKA 已经在所有工作负载测试中都位居榜首。
WEKA 性能工程和技术营销总监 Boni Bruno 在博客中写道:"WEKA 基于搭载 Intel Xeon 处理器的 HPE Alletra Storage Server 4110,于 2025 年 1 月 28 日创下新纪录,在所有五个 SPECstorage Solution 2020 基准测试工作负载中均排名第一... 我们的综合解决方案不仅通过在所有工作负载中创造作业和数据流的新纪录提高了标准,还实现了显著更低的延迟 - 在某些情况下比之前的记录低了高达 6.5 倍。"
这些结果优于 WEKA 在 2024 年 3 月使用公共云实例时的表现。两个表格展示了供应商提交的 AI 图像和 EDA 工作负载的结果:
在最新的测试结果中,WEKA 的 AI 图像性能略微提高了一倍多,且延迟更低,同时将 EDA 混合作业集数量提高了 2.7 倍,延迟也更低。
图表展示了作业输出计数与 ORT (延迟) 的关系,显示了 WEKA 与其他供应商之间的差距:
我们认为 WEKA 基准测试速度的这种激增,主要归功于 Alletra 4110 存储服务器中使用的 PCIe Gen 5 总线的加速效果,它连接 NVMe SSD 和系统内存,而不是因为自去年 3 月以来 WEKA 软件有了巨大改进。
Bruno 表示:"这些记录是使用单一的一致配置在五个 SPECstorage 基准测试中实现的,无需针对特定工作负载进行调优... 这些改进意味着更快的 AI 训练、更少的半导体仿真延迟、更快的基因组分析和更快响应的视频分析。"
他的博客详细介绍了 Alletra 4110 的硬件配置,并提供了各个基准测试运行的更多细节。
就 AI 训练和推理而言,这个基准测试的竞争程度不如 MLPerf 基准测试激烈,在 MLPerf 中,DDN 和 Hammerspace 等公司在保持多个 GPU 90% 或更高利用率方面的表现优于 WEKA。
WEKA 在 SPECstorage Solution 基准测试中的优势在于它实现了对所有工作负载的全面领先。现在我们要等待和关注其他供应商,如 Qumulo 和 NetApp,使用 PCIe Gen 5 硬件测试他们的软件的表现。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。