Pure Storage 通过其新的 FlashBlade//EXA 平台解决了 AI 存储的独特挑战。这是一个专门为人工智能和高性能计算需求打造的高性能、分离式全闪存存储解决方案。这个新方案解决了传统系统在数据摄入、训练和推理过程中经常遇到的关键瓶颈问题。
Pure 的故事并不止于其新存储解决方案。通过与 Meta 达成为其超大规模存储基础设施提供支持的里程碑式协议,Pure 现在处于更广泛的行业转型中心,在这个转型中,闪存不仅仅是一个性能层,更是下一代数据中心的基础。
总的来说,Pure 在超大规模领域的发展势头和其新的分离式存储架构展示了公司的未来。Pure 的思考远超传统企业存储的范畴。
为 AI 构建存储架构
随着 AI 和高性能计算逐渐成为主流,传统的存储方法已被推至极限。现代 AI 工作负载需要对海量结构化和非结构化数据进行闪电般快速的高并发访问,这是传统存储系统从未设计过的功能。结果就是出现瓶颈,减慢数据摄入速度,阻塞训练管道,并削弱昂贵 GPU 的性能。
Pure Storage 的 FlashBlade//EXA 应运而生,这是一个专门设计的高性能存储平台,旨在满足大规模 AI 和 HPC 的需求。通过分离式架构、智能闪存管理和行业领先的吞吐量,Pure 的最新产品在实现实时 AI 基础设施方面迈出了重要一步。
通过将 Pure 独特的 DirectFlash 技术与其成熟的 Purity 操作系统相结合,FlashBlade//EXA 消除了传统基于 SSD 存储的低效问题,降低延迟并最大化吞吐量。
FlashBlade//EXA 通过其分离式存储架构解决了 AI 工作负载的独特挑战。它支持数据和元数据的独立扩展,确保随着 AI 模型复杂度增加时的最佳性能。
Pure 是首批推出专为 AI 设计的分离式架构的主要企业存储供应商之一。虽然 Dell Technologies 和 NetApp 等竞争对手已经规划了类似架构的未来产品,但 Pure 是第一个将此类产品推向市场的传统企业存储供应商。
这项技术的应用也超出了传统企业范畴。Pure 允许新的 FlashBlade//EXA 使用第三方存储阵列的决定让许多行业观察者感到惊讶。这一选择直接迎合了云优先 AI 世界的需求,并简化了新产品与现有基础设施的集成。
Pure 的超大规模布局
今年早些时候,Meta 选择 Pure Storage 作为其下一代存储基础设施的基础。这是超大规模计算公司首次在所有在线存储层级(从低成本归档到高性能 AI 和 ML 工作负载)标准化采用 Pure 的解决方案。
Meta 的理由很简单:闪存存储提供比传统硬盘更好的能效、更高的密度和显著提升的性能。虽然闪存的前期成本仍然较高,但 Pure 的 DirectFlash 架构通过卓越的效率和可扩展性帮助缩小了这一差距。
在最近的技术博客中,Meta 详细介绍了如何使用基于 QLC NAND 技术的闪存存储构建其架构。QLC 在超大规模环境中的读密集型大规模工作负载方面,相比性能导向型存储解决方案中常见的 TLC NAND,具有更好的性价比表现。
Meta 最近详细介绍了其对 QLC NAND 闪存的兴趣,这种闪存比性能导向的 TLC NAND 提供更大容量和更好的经济性,特别适合超大规模环境中常见的读密集型工作负载。虽然 HDD 仍然主导冷存储和温存储层,但 Meta 将 QLC 闪存视为未来,其与 Pure 的合作反映了明确的闪存优先路线图,以实现 EB 级部署的扩展。
真正的优势在于 Pure 的集成方法:将智能软件与定制工程的闪存硬件相结合。这种组合对于在超大规模环境下提供所需的性能、可靠性和效率至关重要。
分析师观点
FlashBlade//EXA 在关键时刻进入竞争市场。企业正在积极寻求替代难以应对高并行性和元数据密集型工作负载的传统系统的方案。Pure 的新产品以其 AI 原生架构、分离式设计和对第三方阵列的支持脱颖而出——这种罕见的组合在性能和部署灵活性之间取得了平衡。
Pure 的新 FlashBlade//EXA 架构与 WEKA 或 VAST Data 等公司的方法相似,这些公司在 AI 训练市场取得了早期成功。但关键区别在于,这些公司并不专注于闪存存储,也没有像 Pure 那样对底层平台有相同程度的控制。
然而,更广泛的影响超越了产品创新。FlashBlade//EXA 反映了 Pure 不断发展的战略,更紧密地与超大规模市场保持一致,在这个市场中软件定义的基础设施和模块化是关键。与 Meta 的合作凸显了这一转变,并将 Pure 定位为 AI 基础设施未来的重要竞争者。
FlashBlade//EXA 和 Meta 合作突显了 Pure 更广泛的战略方向:提供统一性能、效率和规模的软件定义、闪存原生平台。随着企业和超大规模计算机构为 AI 驱动的未来做准备,Pure Storage 正在将自己定位为存储供应商和下一代数字基础设施的关键推动者。这是一个充满挑战的旅程——而 Pure 已经做好了充分准备。
好文章,需要你的鼓励
DeepResearchGym是一个创新的开源评估框架,专为深度研究系统设计,旨在解决当前依赖商业搜索API带来的透明度和可重复性挑战。该系统由卡内基梅隆大学研究团队开发,结合了基于ClueWeb22和FineWeb大型网络语料库的可重复搜索API与严格的评估协议。实验表明,使用DeepResearchGym的系统性能与使用商业API相当,且在评估指标间保持一致性。人类评估进一步证实了自动评估协议与人类偏好的一致性,验证了该框架评估深度研究系统的有效性。
这项研究介绍了FinTagging,首个面向大型语言模型的全面财务信息提取与结构化基准测试。不同于传统方法,它将XBRL标记分解为数值识别和概念链接两个子任务,能同时处理文本和表格数据。在零样本测试中,DeepSeek-V3和GPT-4o表现最佳,但在细粒度概念对齐方面仍面临挑战,揭示了当前大语言模型在自动化XBRL标记领域的局限性,为金融AI发展提供了新方向。
这项研究介绍了SweEval,一个新型基准测试,用于评估大型语言模型在企业环境中处理脏话的能力。研究团队从Oracle AI等多家机构的专家创建了一个包含八种语言的测试集,模拟不同语调和上下文的真实场景。实验结果显示,LLM在英语中较少使用脏话,但在印地语等低资源语言中更易受影响。研究还发现较大模型通常表现更好,且多语言模型如Llama系列在处理不当提示方面优于其他模型。这项工作对企业采用AI技术时的安全考量提供了重要参考。
这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。