HPC 和 AI 并行文件系统存储供应商 VDURA 为其 V5000 硬件架构平台新增了一款高容量全闪存存储节点。
V5000 在三个多月前推出,具有中央纤薄型 (1RU) 控制节点来管理混合闪存+磁盘存储节点。这些存储节点由一个 1RU 服务器和一个 4RU JBOD 组成。整个系统运行 VDURA 数据平台 (VDP) v11 存储操作系统及其 PFS 并行文件系统。新的全闪存 F 节点是一个 1RU 服务器机箱,最多可容纳 12 个 128TB NVMe QLC SSD,提供 1.536PB 的原始容量。
VDURA CEO Ken Claffey 表示:"AI 工作负载需要持续的高性能和稳定的可靠性。这就是为什么我们设计 V5000 不仅要达到最高速度,而且要在面对硬件故障时也能保持这种性能。"
VDURA 称"该系统在确保 24x7x365 运行条件下数据持久性和可用性的同时,提供 GPU 饱和吞吐量。"
F 节点采用 AMD EPYC 9005 系列 CPU,配备 384GB 内存。系统配备 NVIDIA ConnectX-7 以太网 SmartNIC 以实现低延迟数据传输,另外还有三个 PCIe 和一个 OCP Gen 5 插槽用于高速前端和后端扩展连接。F 节点系统可以"从几个节点无缝扩展到数千个节点"。
VDURA 表示,结合全闪存 F 节点和混合闪存+磁盘节点的 V5000 系统提供了统一的高性能数据基础设施,支持 AI 流程的每个阶段,从模型训练到推理和长期存储。VDP 使用客户端擦除编码降低了 V5000 的计算开销,VDURA 声称 VDP 消除了"高频检查点造成的瓶颈"。
F 节点的最小配置是三个控制节点和三个闪存节点。两者都可以独立扩展以满足性能和/或容量需求。一个 42U 机架可容纳三个控制节点和 39 个闪存节点:59.9PB 的原始容量。
客户可以根据其工作负载要求,在同一命名空间中部署 V5000 混合和全闪存 (F 节点) 存储的组合,或将它们配置为独立的命名空间。
Nvidia 云合作伙伴 Radium 正在实施基于 V5000 的 GPU 云系统,为 H100 和 GH200 GPU 提供全带宽数据访问和模块化扩展 - 他们表示这意味着存储可以与 AI 计算需求同步增长,"避免过度配置"。
VDURA V5000 全闪存设备现已可供客户评估和认证,目前正在 AI 数据中心进行早期部署。该产品计划于今年晚些时候全面上市,RDMA 和 GPU Direct 优化功能计划于 2025 年推出。
好文章,需要你的鼓励
麻省理工学院研究团队发现大语言模型"幻觉"现象的新根源:注意力机制存在固有缺陷。研究通过理论分析和实验证明,即使在理想条件下,注意力机制在处理多步推理任务时也会出现系统性错误。这一发现挑战了仅通过扩大模型规模就能解决所有问题的观点,为未来AI架构发展指明新方向,提醒用户在复杂推理任务中谨慎使用AI工具。
继苹果和其他厂商之后,Google正在加大力度推广其在智能手机上的人工智能功能。该公司试图通过展示AI在移动设备上的实用性和创新性来吸引消费者关注,希望说服用户相信手机AI功能的价值。Google面临的挑战是如何让消费者真正体验到AI带来的便利,并将这些技术优势转化为市场竞争力。
中科院自动化所等机构联合发布MM-RLHF研究,构建了史上最大的多模态AI对齐数据集,包含12万个精细人工标注样本。研究提出批评式奖励模型和动态奖励缩放算法,显著提升多模态AI的安全性和对话能力,为构建真正符合人类价值观的AI系统提供了突破性解决方案。