HPC 和 AI 并行文件系统存储供应商 VDURA 为其 V5000 硬件架构平台新增了一款高容量全闪存存储节点。
V5000 在三个多月前推出,具有中央纤薄型 (1RU) 控制节点来管理混合闪存+磁盘存储节点。这些存储节点由一个 1RU 服务器和一个 4RU JBOD 组成。整个系统运行 VDURA 数据平台 (VDP) v11 存储操作系统及其 PFS 并行文件系统。新的全闪存 F 节点是一个 1RU 服务器机箱,最多可容纳 12 个 128TB NVMe QLC SSD,提供 1.536PB 的原始容量。
VDURA CEO Ken Claffey 表示:"AI 工作负载需要持续的高性能和稳定的可靠性。这就是为什么我们设计 V5000 不仅要达到最高速度,而且要在面对硬件故障时也能保持这种性能。"
VDURA 称"该系统在确保 24x7x365 运行条件下数据持久性和可用性的同时,提供 GPU 饱和吞吐量。"
F 节点采用 AMD EPYC 9005 系列 CPU,配备 384GB 内存。系统配备 NVIDIA ConnectX-7 以太网 SmartNIC 以实现低延迟数据传输,另外还有三个 PCIe 和一个 OCP Gen 5 插槽用于高速前端和后端扩展连接。F 节点系统可以"从几个节点无缝扩展到数千个节点"。
VDURA 表示,结合全闪存 F 节点和混合闪存+磁盘节点的 V5000 系统提供了统一的高性能数据基础设施,支持 AI 流程的每个阶段,从模型训练到推理和长期存储。VDP 使用客户端擦除编码降低了 V5000 的计算开销,VDURA 声称 VDP 消除了"高频检查点造成的瓶颈"。
F 节点的最小配置是三个控制节点和三个闪存节点。两者都可以独立扩展以满足性能和/或容量需求。一个 42U 机架可容纳三个控制节点和 39 个闪存节点:59.9PB 的原始容量。
客户可以根据其工作负载要求,在同一命名空间中部署 V5000 混合和全闪存 (F 节点) 存储的组合,或将它们配置为独立的命名空间。
Nvidia 云合作伙伴 Radium 正在实施基于 V5000 的 GPU 云系统,为 H100 和 GH200 GPU 提供全带宽数据访问和模块化扩展 - 他们表示这意味着存储可以与 AI 计算需求同步增长,"避免过度配置"。
VDURA V5000 全闪存设备现已可供客户评估和认证,目前正在 AI 数据中心进行早期部署。该产品计划于今年晚些时候全面上市,RDMA 和 GPU Direct 优化功能计划于 2025 年推出。
好文章,需要你的鼓励
英特尔携手戴尔以及零克云,通过打造“工作站-AI PC-云端”的协同生态,大幅缩短AI部署流程,助力企业快速实现从想法验证到规模化落地。
意大利ISTI研究院推出Patch-ioner零样本图像描述框架,突破传统局限实现任意区域精确描述。系统将图像拆分为小块,通过智能组合生成从单块到整图的统一描述,无需区域标注数据。创新引入轨迹描述任务,用户可用鼠标画线获得对应区域描述。在四大评测任务中全面超越现有方法,为人机交互开辟新模式。
阿联酋阿布扎比人工智能大学发布全新PAN世界模型,超越传统大语言模型局限。该模型具备通用性、交互性和长期一致性,能深度理解几何和物理规律,通过"物理推理"学习真实世界材料行为。PAN采用生成潜在预测架构,可模拟数千个因果一致步骤,支持分支操作模拟多种可能未来。预计12月初公开发布,有望为机器人、自动驾驶等领域提供低成本合成数据生成。
MIT研究团队发现,AI系统无需严格配对的多模态数据也能显著提升性能。他们开发的UML框架通过参数共享让AI从图像、文本、音频等不同类型数据中学习,即使这些数据间没有直接对应关系。实验显示这种方法在图像分类、音频识别等任务上都超越了单模态系统,并能自发发展出跨模态理解能力,为未来AI应用开辟了新路径。