WEKA 宣布使用 HPE PCIe Gen 5 硬件在 SPECstorage Solution 2020 基准测试的全部五个测试场景中均获得最佳成绩。
该基准测试包含五个工作负载场景:AI 图像处理 (代表 AI TensorFlow 图像处理环境)、电子设计自动化 (EDA)、基因组学、软件构建和视频数据采集 (VDA)。测试结果包括作业数或构建数、整体响应时间 (ORT) 以及供应商在结果网页上提交的其他详细指标。WEKA 在 2022 年 1 月使用 Samsung SSD 提供的本地部署解决方案就已经获得了大部分最佳成绩。随后在 2024 年 3 月,它再次在五个类别中的四个中击败其他供应商。现在,WEKA 已经在所有工作负载测试中都位居榜首。
WEKA 性能工程和技术营销总监 Boni Bruno 在博客中写道:"WEKA 基于搭载 Intel Xeon 处理器的 HPE Alletra Storage Server 4110,于 2025 年 1 月 28 日创下新纪录,在所有五个 SPECstorage Solution 2020 基准测试工作负载中均排名第一... 我们的综合解决方案不仅通过在所有工作负载中创造作业和数据流的新纪录提高了标准,还实现了显著更低的延迟 - 在某些情况下比之前的记录低了高达 6.5 倍。"
这些结果优于 WEKA 在 2024 年 3 月使用公共云实例时的表现。两个表格展示了供应商提交的 AI 图像和 EDA 工作负载的结果:
在最新的测试结果中,WEKA 的 AI 图像性能略微提高了一倍多,且延迟更低,同时将 EDA 混合作业集数量提高了 2.7 倍,延迟也更低。
图表展示了作业输出计数与 ORT (延迟) 的关系,显示了 WEKA 与其他供应商之间的差距:
我们认为 WEKA 基准测试速度的这种激增,主要归功于 Alletra 4110 存储服务器中使用的 PCIe Gen 5 总线的加速效果,它连接 NVMe SSD 和系统内存,而不是因为自去年 3 月以来 WEKA 软件有了巨大改进。
Bruno 表示:"这些记录是使用单一的一致配置在五个 SPECstorage 基准测试中实现的,无需针对特定工作负载进行调优... 这些改进意味着更快的 AI 训练、更少的半导体仿真延迟、更快的基因组分析和更快响应的视频分析。"
他的博客详细介绍了 Alletra 4110 的硬件配置,并提供了各个基准测试运行的更多细节。
就 AI 训练和推理而言,这个基准测试的竞争程度不如 MLPerf 基准测试激烈,在 MLPerf 中,DDN 和 Hammerspace 等公司在保持多个 GPU 90% 或更高利用率方面的表现优于 WEKA。
WEKA 在 SPECstorage Solution 基准测试中的优势在于它实现了对所有工作负载的全面领先。现在我们要等待和关注其他供应商,如 Qumulo 和 NetApp,使用 PCIe Gen 5 硬件测试他们的软件的表现。
好文章,需要你的鼓励
OpenAI CEO描绘了AI温和变革人类生活的愿景,但现实可能更复杂。AI发展将带来真正收益,但也会造成社会错位。随着AI系统日益影响知识获取和信念形成,共同认知基础面临分裂风险。个性化算法加剧信息茧房,民主对话变得困难。我们需要学会在认知群岛化的新地形中智慧生存,建立基于共同责任而非意识形态纯洁性的社区。
杜克大学等机构研究团队通过三种互补方法分析了大语言模型推理过程,发现存在"思维锚点"现象——某些关键句子对整个推理过程具有决定性影响。研究表明,计划生成和错误检查等高层次句子比具体计算步骤更重要,推理模型还进化出专门的注意力机制来跟踪这些关键节点。该发现为AI可解释性和安全性研究提供了新工具和视角。
传统数据中心基础设施虽然对企业至关重要,但也是预算和房地产的重大负担。模块化数据中心正成为强有力的替代方案,解决企业面临的运营、财务和环境复杂性问题。这种模块化方法在印度日益流行,有助于解决环境问题、满足人工智能的电力需求、降低成本并支持新一代分布式应用。相比传统建设需要数年时间,工厂预制的模块化数据中心基础设施可在数周内部署完成。
法国索邦大学团队开发出智能医学文献管理系统Biomed-Enriched,通过AI自动从PubMed数据库中识别和提取高质量临床案例及教育内容。该系统采用两步注释策略,先用大型AI模型评估40万段落质量,再训练小型模型处理全库1.33亿段落。实验显示该方法仅用三分之一训练数据即可达到传统方法效果,为医学AI发展提供了高效可持续的解决方案。