DDN 宣布推出专为 AI 训练和推理设计的 Infinia 2.0 对象存储系统,声称在 AI 数据加速方面可提升高达 100 倍的性能,并在数据中心和云计算成本效率方面实现 10 倍提升。
Infinia 是一个从底层设计的基于键值对的对象存储系统。我们最近在这里详细介绍过 Infinia 的技术。
DDN 首席执行官兼联合创始人 Alex Bouzari 表示:"财富 500 强企业中有 85 家在 DDN 的数据智能平台上运行其 AI 和高性能计算应用。通过 Infinia,我们能够将客户的数据分析和 AI 框架加速数个数量级,实现更快的模型训练和准确的实时洞察,同时确保 GPU 效率和能源使用的未来可持续性。"
他的 DDN 创始合伙人、总裁 Paul Bloch 说:"我们的平台已经部署在全球一些最大的 AI 工厂和云环境中,证明了其支持大规模关键任务 AI 运营的能力。"DDN 此前表示 Elon Musk 的 xAI 是其客户。
AI 数据存储是 DDN 对 Infinia 的核心定位。首席技术官 Sven Oehme 表示:"AI 工作负载需要实时数据智能来消除瓶颈、加速工作流程,并在复杂的模型列表、训练前后、RAG、智能 AI、多模态环境和推理中实现无缝扩展。Infinia 2.0 的设计旨在最大化这些领域的 AI 价值,同时提供实时数据服务、高效多租户、智能自动化和强大的 AI 原生架构。"
Infinia 包含事件驱动的数据移动、多租户、硬件无关设计、99.999% 以上的正常运行时间、高达 10 倍的永久数据压缩、容错网络纠删码和自动 QoS。它与其他快速的、最近加速的对象存储系统并驾齐驱,如 Cloudian 的 HyperStore、MinIO、Quantum Myriad、Scality 的 RING 和 VAST Data。
Infinia 软件与 Nvidia 的 Nemo 和 NIMS 微服务、GPU、Bluefield 3 DPU 和 Spectrum-X 网络协同工作,加速 AI 数据流水线。DDN 声称它"在核心、云和边缘环境中集成了 AI 推理、数据分析和模型准备"。Infinia 与 Trino、Apache Spark、TensorFlow、PyTorch "和其他 AI 框架集成,以加速 AI 应用"。
Nvidia DGX 平台副总裁 Charlie Boyle 评论道:"结合 Nvidia 的加速计算和企业软件,像 DDN Infinia 2.0 这样的平台为企业提供了充分利用数据所需的基础设施。"
Infinia 具有 TB 级带宽和亚毫秒级延迟,"性能超过 AWS S3 Express 10 倍,提供前所未有的 S3 性能"。DDN 的其他优势包括 AI 数据加速 100 倍,AI 工作负载速度提升 10 倍,效率比 Hadoop 高 100 倍(基于"独立基准测试"),元数据处理速度提升 100 倍,每秒对象列表处理速度比 AWS 快 100 倍,AI 模型训练和推理查询速度提升 25 倍。
Infinia 系统"可从 TB 级扩展到 EB 级,在单个部署中支持超过 100,000 个 GPU 和 100 万个同时连接的客户端,实现大规模 AI 创新"。DDN 表示,它"在实际数据中心和云部署中已经得到验证,可支持 10 到 100,000 多个 GPU,在任何规模下都能确保最大的 GPU 利用率,实现无与伦比的效率和成本节省"。
超微计算机首席执行官 Charles Liang 表示:"通过将 DDN 的数据智能平台 Infinia 2.0 与超微的前沿服务器工作负载优化解决方案相结合,两家公司合作打造了世界上最大的 AI 数据中心之一。"我们认为这指的是 xAI 的 Colossus 数据中心为 Grok 3 阶段 1 所做的扩展。DDN 在这里提供了更多关于 Infinia 的信息。
补充说明: 据了解,xAI 最新的 Grok 3 大语言模型在训练和运行时同时使用了 VAST Data 存储和 DDN 的 Exa 及 Infinia 存储。
好文章,需要你的鼓励
Allen AI研究所联合多家顶尖机构推出SAGE智能视频分析系统,首次实现类人化的"任意时长推理"能力。该系统能根据问题复杂程度灵活调整分析策略,配备六种智能工具进行协同分析,在处理10分钟以上视频时准确率提升8.2%。研究团队创建了包含1744个真实娱乐视频问题的SAGE-Bench评估平台,并采用创新的AI生成训练数据方法,为视频AI技术的实际应用开辟了新路径。
联想推出新一代NVMe存储解决方案DE6600系列,包含全闪存DE6600F和混合存储DE6600H两款型号。该系列产品延迟低于100微秒,支持多种连接协议,2U机架可容纳24块NVMe驱动器。容量可从367TB扩展至1.798PiB全闪存或7.741PiB混合配置,适用于AI、高性能计算、实时分析等场景,并配备双活控制器和XClarity统一管理平台。
中科院团队首次系统评估了AI视觉模型在文本压缩环境下的理解能力,发现虽然AI能准确识别压缩图像中的文字,但在理解深层含义、建立关联推理方面表现不佳。研究通过VTCBench测试系统揭示了AI存在"位置偏差"等问题,为视觉文本压缩技术的改进指明方向。