DDN 发布 Infinia 2.0 对象存储,加速 AI 数据流水线

DDN 发布新一代 Infinia 2.0 对象存储系统,专为 AI 训练和推理设计。该系统号称可将 AI 数据加速提升 100 倍,数据中心和云计算成本效率提高 10 倍。Infinia 2.0 采用键值对架构,集成多项先进技术,旨在消除 AI 工作负载瓶颈,加速数据流,并实现无缝扩展。

DDN 宣布推出专为 AI 训练和推理设计的 Infinia 2.0 对象存储系统,声称在 AI 数据加速方面可提升高达 100 倍的性能,并在数据中心和云计算成本效率方面实现 10 倍提升。

Infinia 是一个从底层设计的基于键值对的对象存储系统。我们最近在这里详细介绍过 Infinia 的技术。

DDN 首席执行官兼联合创始人 Alex Bouzari 表示:"财富 500 强企业中有 85 家在 DDN 的数据智能平台上运行其 AI 和高性能计算应用。通过 Infinia,我们能够将客户的数据分析和 AI 框架加速数个数量级,实现更快的模型训练和准确的实时洞察,同时确保 GPU 效率和能源使用的未来可持续性。"

他的 DDN 创始合伙人、总裁 Paul Bloch 说:"我们的平台已经部署在全球一些最大的 AI 工厂和云环境中,证明了其支持大规模关键任务 AI 运营的能力。"DDN 此前表示 Elon Musk 的 xAI 是其客户。

AI 数据存储是 DDN 对 Infinia 的核心定位。首席技术官 Sven Oehme 表示:"AI 工作负载需要实时数据智能来消除瓶颈、加速工作流程,并在复杂的模型列表、训练前后、RAG、智能 AI、多模态环境和推理中实现无缝扩展。Infinia 2.0 的设计旨在最大化这些领域的 AI 价值,同时提供实时数据服务、高效多租户、智能自动化和强大的 AI 原生架构。"

Infinia 包含事件驱动的数据移动、多租户、硬件无关设计、99.999% 以上的正常运行时间、高达 10 倍的永久数据压缩、容错网络纠删码和自动 QoS。它与其他快速的、最近加速的对象存储系统并驾齐驱,如 Cloudian 的 HyperStore、MinIO、Quantum Myriad、Scality 的 RING 和 VAST Data。

Infinia 软件与 Nvidia 的 Nemo 和 NIMS 微服务、GPU、Bluefield 3 DPU 和 Spectrum-X 网络协同工作,加速 AI 数据流水线。DDN 声称它"在核心、云和边缘环境中集成了 AI 推理、数据分析和模型准备"。Infinia 与 Trino、Apache Spark、TensorFlow、PyTorch "和其他 AI 框架集成,以加速 AI 应用"。

Nvidia DGX 平台副总裁 Charlie Boyle 评论道:"结合 Nvidia 的加速计算和企业软件,像 DDN Infinia 2.0 这样的平台为企业提供了充分利用数据所需的基础设施。"

Infinia 具有 TB 级带宽和亚毫秒级延迟,"性能超过 AWS S3 Express 10 倍,提供前所未有的 S3 性能"。DDN 的其他优势包括 AI 数据加速 100 倍,AI 工作负载速度提升 10 倍,效率比 Hadoop 高 100 倍(基于"独立基准测试"),元数据处理速度提升 100 倍,每秒对象列表处理速度比 AWS 快 100 倍,AI 模型训练和推理查询速度提升 25 倍。

Infinia 系统"可从 TB 级扩展到 EB 级,在单个部署中支持超过 100,000 个 GPU 和 100 万个同时连接的客户端,实现大规模 AI 创新"。DDN 表示,它"在实际数据中心和云部署中已经得到验证,可支持 10 到 100,000 多个 GPU,在任何规模下都能确保最大的 GPU 利用率,实现无与伦比的效率和成本节省"。

超微计算机首席执行官 Charles Liang 表示:"通过将 DDN 的数据智能平台 Infinia 2.0 与超微的前沿服务器工作负载优化解决方案相结合,两家公司合作打造了世界上最大的 AI 数据中心之一。"我们认为这指的是 xAI 的 Colossus 数据中心为 Grok 3 阶段 1 所做的扩展。DDN 在这里提供了更多关于 Infinia 的信息。

补充说明: 据了解,xAI 最新的 Grok 3 大语言模型在训练和运行时同时使用了 VAST Data 存储和 DDN 的 Exa 及 Infinia 存储。

来源:BLOCKS & FILES

0赞

好文章,需要你的鼓励

2025

02/21

09:47

分享

点赞

邮件订阅