HPC 和 AI 并行文件系统存储供应商 VDURA 为其 V5000 硬件架构平台新增了一款高容量全闪存存储节点。
V5000 在三个多月前推出,具有中央纤薄型 (1RU) 控制节点来管理混合闪存+磁盘存储节点。这些存储节点由一个 1RU 服务器和一个 4RU JBOD 组成。整个系统运行 VDURA 数据平台 (VDP) v11 存储操作系统及其 PFS 并行文件系统。新的全闪存 F 节点是一个 1RU 服务器机箱,最多可容纳 12 个 128TB NVMe QLC SSD,提供 1.536PB 的原始容量。
VDURA CEO Ken Claffey 表示:"AI 工作负载需要持续的高性能和稳定的可靠性。这就是为什么我们设计 V5000 不仅要达到最高速度,而且要在面对硬件故障时也能保持这种性能。"
VDURA 称"该系统在确保 24x7x365 运行条件下数据持久性和可用性的同时,提供 GPU 饱和吞吐量。"
F 节点采用 AMD EPYC 9005 系列 CPU,配备 384GB 内存。系统配备 NVIDIA ConnectX-7 以太网 SmartNIC 以实现低延迟数据传输,另外还有三个 PCIe 和一个 OCP Gen 5 插槽用于高速前端和后端扩展连接。F 节点系统可以"从几个节点无缝扩展到数千个节点"。
VDURA 表示,结合全闪存 F 节点和混合闪存+磁盘节点的 V5000 系统提供了统一的高性能数据基础设施,支持 AI 流程的每个阶段,从模型训练到推理和长期存储。VDP 使用客户端擦除编码降低了 V5000 的计算开销,VDURA 声称 VDP 消除了"高频检查点造成的瓶颈"。
F 节点的最小配置是三个控制节点和三个闪存节点。两者都可以独立扩展以满足性能和/或容量需求。一个 42U 机架可容纳三个控制节点和 39 个闪存节点:59.9PB 的原始容量。
客户可以根据其工作负载要求,在同一命名空间中部署 V5000 混合和全闪存 (F 节点) 存储的组合,或将它们配置为独立的命名空间。
Nvidia 云合作伙伴 Radium 正在实施基于 V5000 的 GPU 云系统,为 H100 和 GH200 GPU 提供全带宽数据访问和模块化扩展 - 他们表示这意味着存储可以与 AI 计算需求同步增长,"避免过度配置"。
VDURA V5000 全闪存设备现已可供客户评估和认证,目前正在 AI 数据中心进行早期部署。该产品计划于今年晚些时候全面上市,RDMA 和 GPU Direct 优化功能计划于 2025 年推出。
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。