Quantum 的 Myriad 操作系统现已支持 Nvidia GPUDirect 文件访问功能,可实现 GPU 服务器的快速数据读取。
Myriad 于 2023 年 4 月发布,是一个基于键值存储技术的容器化、统一的、可扩展的文件和对象存储软件栈,专为全闪存 NVMe 介质设计,可管理数万亿级的文件和对象。今年 4 月,Quantum 集成了 Tuxera Fusion File Share IP 以支持服务器消息块 (SMB) 文件访问,通过 SMB Direct RDMA、SMB 横向扩展、SMB 多通道、SMB 见证协议和持久性文件句柄等特性提升了文件服务性能和稳定性。GPUDirect 能够通过 RDMA 从远程 NVME 驱动器直接将数据加载到 GPU 服务器内存中。
此次 Myriad 最新升级增加了并行文件系统客户端,完整支持 GPUDirect 存储功能,并提供即时客户端节点部署能力,支持跨平台兼容性 - 包括采用 Grace Arm 架构的 Nvidia Grace Hopper。这为构建 AI/ML (人工智能/机器学习) 基础设施提供了新方案,使客户能够向 Myriad 集群添加图形处理单元 (GPU) 节点。
Quantum 首席开发官 Jeff Mulder 表示:"新客户端通过在客户端系统上作为完全集成的 GPUDirect 节点运行,带来了独特的功能。与传统依赖其他设备代为执行操作的并行文件系统客户端不同,Myriad 的客户端可以自行执行元数据操作、数据压缩和数据保护操作。这种方法最大限度地减少了常见瓶颈,让客户能够在不同架构中充分利用 GPU 投资,并且随着访问 Myriad 系统的并行客户端数量增加而提升性能。"
Myriad 的并行客户端设计为构建 AI/ML 基础设施提供了新思路,它可以直接安装在配备 GPU 卡的客户服务器或工作站上,将主机工作站转变为可运行的 Myriad GPU 节点。
新客户端针对 GPU 密集型工作负载进行了优化,如 AI/ML 模型训练和推理、高性能计算 (HPC) 可视化和建模以及视频渲染。它的设计目标是最大化 GPU 利用率和性能。
可以随时向 Myriad 集群添加多个客户端节点,这是除 SMB、网络文件系统 (NFS) 和计划中的 S3 访问之外的新连接选项,可以按需添加到任何 Myriad 共享点。
增加的 GPUDirect 支持意味着 Myriad 系统可以与现有支持 GPUDirect 的供应商(如 DDN、IBM、华为、NetApp、Pure Storage、VAST Data 和 WEKA)竞争 AI 训练和推理工作负载。在需要 Nvidia GPU 服务器的 AI/ML 工作负载的新存储招标中,Myriad 将不会被排除在外。
媒体和娱乐客户集成商 CHESA 的首席商务官 Lance Hukill 表示:"在我们的实验室测试后,我们对 Myriad 的性能和功能印象深刻。"
新的 Myriad 并行文件系统客户端将通过 Quantum 的早期访问计划提供评估。现有 Myriad 客户有资格在 2025 年第一季度发布时参与并行文件系统客户端的早期访问计划,该产品将在 2025 年下半年全面上市。可以在此处了解更多关于早期访问计划的信息。
Quantum 表示,其系统集成商网络已准备就绪,可以帮助集成 Myriad 的功能,以满足内容制作需求,如动画/视觉效果 (VFX) 渲染以及大规模富媒体和视频的 AI/ML 处理。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。