Everpure公司近日宣布推出Evergreen One for AI,这是一种基于性能保障的人工智能消费模式,该模式扩展到其FlashBlade//Exa高性能存储的使用。与此同时,这家最近更名的公司还宣布其Datastream自动化AI流水线设备进入测试阶段。
Evergreen One for AI与Everpure产品线中现有的灵活容量产品有所不同,它提供FlashBlade//Exa的使用权,并基于图形处理单元(GPU)数量提供服务级协议(SLA)。这样做的目的是确保存储环境提供充足的吞吐量,以保持GPU资源的充分利用。
FlashBlade//Exa是Everpure性能最高的平台,此前被排除在Evergreen One消费模式之外。Exa主要面向需要极高吞吐量的AI和高性能计算工作负载,目标客户介于大型企业AI用户和超大规模云服务商之间。
在发布时,FlashBlade//Exa为Pure产品线引入了一种架构,其中元数据和批量存储被分离,使用不同的硬件和协议。
Everpure AI副总裁Kaycee Lai表示,Evergreen One for AI将财务和运营风险从客户身上转移开。他说:"具体而言,我们有一个名为Evergreen One for AI的产品。AI产品的最大不同之处在于,我们根据您拥有的GPU数量来设置产品的性能水平...这是由SLA支持的性能保证。"
自动化RAG流水线
Everpure还宣布Datastream进入测试阶段。Datastream在2024年底首次预览,是一个"单一SKU"设备,将英伟达GPU与Everpure存储集成在一起。Lai说,它旨在解决"数据准备"挑战。这指的是经常被引用的统计数据:数据团队花费80%的时间准备非结构化数据以供使用。
该设备自动化检索增强生成(RAG)流水线,包括数据摄取、整理和向量化。通过提供集成的硬件和软件堆栈,Everpure旨在为构建聊天机器人或自主智能体的企业提供"简单按钮"解决方案。
Datastream背后的软件功能是内部开发的,但它可以连接到第三方数据源,包括戴尔、惠普和NetApp环境,以及云端数据。这种灵活性使设备能够成为AI准备的中央枢纽,无论数据存在何处。
Lai说:"现在,人们运行RAG流水线...他们进行分块、嵌入、索引,以确保数据准确且相关,以便聊天机器人智能体能够以特定格式使用它们。这占用了大多数数据团队大约80%的时间,因为没有标准工具。"
性能支撑
为了支持这些产品发布,Everpure公布了新的基准测试结果,旨在验证其硬件在AI压力下的表现。在MLPerf 2.0测试中,该公司声称在检查点功能方面位居榜首,这是在长时间训练运行中保存模型状态的关键功能,报告的结果比华为和Vast等竞争对手好两倍。
该公司还引用了Spec Storage AI图像基准测试,其性能比NetApp的AFX平台高出约20%。
Q&A
Q1:Evergreen One for AI与传统存储服务有什么不同?
A:Evergreen One for AI是基于GPU数量提供服务级协议(SLA)的性能保障消费模式,它将财务和运营风险从客户转移到Everpure身上,确保存储环境提供充足吞吐量来保持GPU资源充分利用。
Q2:Datastream设备主要解决什么问题?
A:Datastream主要解决"数据准备"挑战,即数据团队花费80%时间准备非结构化数据的问题。它自动化RAG流水线,包括数据摄取、整理和向量化,为企业构建聊天机器人或自主智能体提供简单解决方案。
Q3:FlashBlade//Exa平台的主要目标客户是谁?
A:FlashBlade//Exa主要面向需要极高吞吐量的AI和高性能计算工作负载,目标客户介于大型企业AI用户和超大规模云服务商之间,适合那些对存储性能要求极高的应用场景。
好文章,需要你的鼓励
这期是技术加情怀了。极少数人基于热情和对卓越的执念,构建了数十亿人每天依赖但普通人从不知晓的基础设施。
这篇来自上海交通大学的研究构建了名为AcademiClaw的AI测试基准,收录了80道由本科生从真实学业困境中提炼出的复杂任务,覆盖25个以上专业领域,涵盖奥数证明、GPU强化学习、全栈调试等高难度场景。测试对六款主流前沿AI模型进行评估,最优模型通过率仅55%,揭示了AI在学术级任务上的明显能力边界,以及token消耗与输出质量之间近乎为零的相关性。
Antigravity A1无人机推出"大春季更新",新增AI智能剪辑、语音助手、延时摄影模式及升级版全向避障系统。用户可通过语音命令控制Sky Genie、深度追踪等核心功能,虚拟驾驶舱支持第三人称视角飞行。随着产品进入墨西哥市场,Antigravity全球覆盖已近60个国家,持续推动无人机向更智能、更易用方向发展。
Meta AI安全团队于2026年5月发布了代码世界模型(CWM)的预发布安全评估报告(arXiv:2605.00932v1)。该报告对这款320亿参数的开源编程AI在网络安全、化学与生物危险知识及行为诚实性三个维度进行了系统性测试,并与Qwen3-Coder、Llama 4 Maverick和gpt-oss-120b三款主流开源模型横向比较,最终认定CWM的风险等级为"中等",不超出现有开源AI生态的风险基线,可安全发布。