Pure Storage 与 Nvidia 展开合作,使现有和新的 FlashBlade 客户能够为运行在 Nvidia AI 数据平台上的 AI 模型提供数据存储支持。
尽管 Pure 最近发布了可扩展性能和容量超越现有 FlashBlade 产品的分离式架构 FlashBlade//EXA 技术,但该公司仍确保了与 Nvidia 新型 AI 数据平台的兼容性。通过采用参考设计和认证,FlashBlade 客户可以与 Nvidia 的 Blackwell GPU 进行集成 —— 通过 BlueField-3 网卡、Spectrum-X 网络、NIM 和 NeMo Retriever 微服务以及 AIQ 蓝图传输数据。
Nvidia 存储网络技术副总裁 Rob Davis 表示:"通过将 Nvidia AI 数据平台功能集成到 Pure Storage FlashBlade 中,企业可以为 AI 代理提供近实时的业务数据,从而实现新水平的个性化客户服务、运营效率和前所未有的生产力。"
Pure 支持其 FlashBlade 产品的 AI 数据平台参考设计,现已通过认证成为 Nvidia 合作伙伴网络云合作伙伴参考架构的高性能存储 (HPS) 平台,包括配备 B200 或 H200 GPU 的 HGX 系统。同时还获得了 Nvidia 认证存储合作伙伴的基础级和企业级认证,确认 Pure FlashBlade 可以作为 Nvidia 风格 AI 工厂中的存储组件。
基础级是 Nvidia 存储合作伙伴的入门点,验证其 AI 基础设施在训练较小的大语言模型 (LLM)、推理任务和初始检索增强生成 (RAG) 工作流方面的基准性能和兼容性。企业级则针对大规模 AI 部署,为 AI 工厂提供动力,处理智能 AI 和其他生成式 AI 应用的海量数据集。
Pure 为与 Cisco 服务器和网络构建的融合 FlashStack 系统提供存储支持。FlashStack 客户获得了与 Nvidia AI 数据平台集成的明确路径。
Pure 首席技术官 Rob Lee 断言:"将 Nvidia AI 数据平台整合到 FlashBlade 中提供了客户所需的 AI 就绪存储",并补充说:"我们最近获得的 Nvidia 认证证实了 Pure Storage 正在支持 AI 模型所需的速度和规模。"
好文章,需要你的鼓励
根据IDC最新研究报告显示,边缘计算正在重新定义企业如何利用实时数据和人工智能工作负载。预计到2028年,全球边缘计算支出将达到3800亿美元,年复合增长率为13.8%。这一增长主要由AI加速处理器、多接入边缘计算 (MEC)、内容分发网络 (CDN) 和虚拟网络功能 (VNF) 等技术推动。
最新研究显示,全球超大规模数据中心数量已达 1,136 个,是五年前的两倍。在 AI 工作负载需求推动下,运营商倾向于建设规模更大的设施,而不是增加设施数量。AWS、微软和谷歌占据全球超大规模数据中心容量的 59%,美国仍是最大市场,占据全球容量的 54%。未来四年内,预计总容量将再次翻倍。
自动驾驶软件提供商Oxa宣布将使用英伟达Cosmos生成式世界基础模型,加速工业移动自动化(IMA)发展。这一合作将帮助Oxa生成大量多样化的合成数据,加快其自动驾驶软件的训练与验证,从而快速部署安全可靠的自动驾驶解决方案,进军价值2万亿美元的工业移动自动化市场。
DDN 在 Nvidia 的 GTC 2025 大会上发布了 Inferno 高速对象存储设备和 xFusionAI 混合文件+对象技术。Inferno 通过整合 Nvidia Spectrum-X 交换机,性能显著优于 AWS S3。xFusionAI 则结合了 EXAScaler 高速文件存储和 Infinia 对象存储,为 AI 工作流提供平衡的存储解决方案。这两项技术旨在消除 AI 瓶颈,加速工作流程,并实现复杂模型的扩展。