Pure Storage 与 Nvidia 展开合作,使现有和新的 FlashBlade 客户能够为运行在 Nvidia AI 数据平台上的 AI 模型提供数据存储支持。
尽管 Pure 最近发布了可扩展性能和容量超越现有 FlashBlade 产品的分离式架构 FlashBlade//EXA 技术,但该公司仍确保了与 Nvidia 新型 AI 数据平台的兼容性。通过采用参考设计和认证,FlashBlade 客户可以与 Nvidia 的 Blackwell GPU 进行集成 —— 通过 BlueField-3 网卡、Spectrum-X 网络、NIM 和 NeMo Retriever 微服务以及 AIQ 蓝图传输数据。
Nvidia 存储网络技术副总裁 Rob Davis 表示:"通过将 Nvidia AI 数据平台功能集成到 Pure Storage FlashBlade 中,企业可以为 AI 代理提供近实时的业务数据,从而实现新水平的个性化客户服务、运营效率和前所未有的生产力。"
Pure 支持其 FlashBlade 产品的 AI 数据平台参考设计,现已通过认证成为 Nvidia 合作伙伴网络云合作伙伴参考架构的高性能存储 (HPS) 平台,包括配备 B200 或 H200 GPU 的 HGX 系统。同时还获得了 Nvidia 认证存储合作伙伴的基础级和企业级认证,确认 Pure FlashBlade 可以作为 Nvidia 风格 AI 工厂中的存储组件。
基础级是 Nvidia 存储合作伙伴的入门点,验证其 AI 基础设施在训练较小的大语言模型 (LLM)、推理任务和初始检索增强生成 (RAG) 工作流方面的基准性能和兼容性。企业级则针对大规模 AI 部署,为 AI 工厂提供动力,处理智能 AI 和其他生成式 AI 应用的海量数据集。
Pure 为与 Cisco 服务器和网络构建的融合 FlashStack 系统提供存储支持。FlashStack 客户获得了与 Nvidia AI 数据平台集成的明确路径。
Pure 首席技术官 Rob Lee 断言:"将 Nvidia AI 数据平台整合到 FlashBlade 中提供了客户所需的 AI 就绪存储",并补充说:"我们最近获得的 Nvidia 认证证实了 Pure Storage 正在支持 AI 模型所需的速度和规模。"
好文章,需要你的鼓励
本文比较了谷歌“铁木” TPU Pod 与传统HPC系统(如“El Capitan”和“Aurora”)在性能和成本上的表现。文章指出,尽管设计目标不同,但美国能源部通过优惠合作,实现了更优的性价比,而谷歌的比较存在误导。
斯坦福大学推出 AI4MH 项目,聚焦利用生成式 AI 改革心理健康诊断与治疗,探讨现有体系不足及未来发展。
在期末之际,OpenAI和谷歌向学生免费提供AI工具:前者短期内开放ChatGPT Plus,后者长期提供Google One AI Premium套件,助力高校数字化转型。
Together AI 最新升级其微调平台,支持浏览器零代码操作、直接偏好优化、续接先前训练任务并调整消息权重,同时新定价更低廉,旨在简化AI模型持续迭代。