但截至目前,将存储与计算相融合的技术尚未大范围流行。
NVM Express联盟日前更新规范,希望引入计算存储功能以建立新的标准化方式,在应用程序与包含特定处理功能的存储设备之间建立通信机制。
NVM Express(下文简称「该组织」)负责监督通过主机PCIe总线使用固态硬盘(SSD)的NVMe规范,而新加入的计算存储功能将进一步扩展规范以支持NVMe计算存储设备。
此番支持涵盖两套新的NVMe命令集:其一用于计算程序,其二用于子系统本地内存命令。两套命令集现在均可从NVM Express官方网站处下载。
其中计算程序命令集将使NVMe设备能够对NVM子系统中的数据执行操作,使用各项命令管理设备上的计算活动。
另一方面,子系统本地内存命令则允许通过NVMe I/O命令访问NVM子系统中的本地内存,可通过各项命令实现用户数据读取/写入以及将用户数据复制到设备本地内存等操作。
计算存储技术的核心,在于将计算与存储紧密耦合的新型架构。这种架构的优势,主要在于将处理能力嵌入至SSD等存储设备以减少数据移动需求。如此一来,数据库和AI处理等延迟关键型应用的响应速度将显著提升。
NVMe计算存储任务组联席主席Bill Martin在回应采访的声明中表示,“NVM Express计算存储是我们向企业和超大规模数据中心伸出援手,满足存储行业不断变化的现实需求的重要举措。”Martin本人还担任三星电子负责SSD IO标准的首席工程师。
“计算存储是一种标准化方法,将建立起开放且可互操作的生态系统。通过将计算任务移交至存储设备,我们预计相关行业的总体拥有成本将有所降低、整体性能也将随之提升。”
三星是目前制造计算存储驱动器(产品名称为SmartSSD)的参与厂商之一。
在与英特尔存储软件架构师Kim Malone共同撰写的博文中,Martin解释了数据集规模的增加如何在网络带宽用量、主机内存和CPU利用率等层面引发性能瓶颈。而计算存储技术又如何经由NVMe设备将部分数据处理任务从主机上转移出来,有效解决这个问题。
博文指出,“通过减少计算过程中所需的数据传输量,系统能够为关键数据应用提供更快的响应速度。”
“此外,通过将计算任务转移至NVMe设备,计算存储技术还有助于释放整个系统的架构利用率,降低数据中心环境的总体拥有成本。”
但根据技术媒体Blocks & Files最近的报道,计算存储技术截至目前并未得到市场的广泛接纳。而其中一大原因,就是与系统主机处理器(通常是FPGA或者少量Arm核心)相比,存储设备中嵌入的计算容量太过孱弱。
计算存储SSD的典型应用,往往侧重于承担压缩/解压缩、纠删码以及加速数据库等场景下的键值操作。
目前还不清楚新的NVM Express规范能否或者如何与存储网络行业协会(SNIA)定义的计算存储架构与编程模型相兼容。
不到一年之前,SNIA刚刚发布上述规范的1.0版本。文件定义了相关概念,旨在为应用程序提供通用编程模型,用以发现并使用附加至计算机系统的一切计算存储资源。
好文章,需要你的鼓励
亚马逊云服务部门与OpenAI签署了一项价值380亿美元的七年协议,为ChatGPT制造商提供数十万块英伟达图形处理单元。这标志着OpenAI从研究实验室向AI行业巨头的转型,该公司已承诺投入1.4万亿美元用于基础设施建设。对于在AI时代竞争中处于劣势的亚马逊而言,这项协议证明了其构建和运营大规模数据中心网络的能力。
Meta FAIR团队发布的CWM是首个将"世界模型"概念引入代码生成的32亿参数开源模型。与传统只学习静态代码的AI不同,CWM通过学习Python执行轨迹和Docker环境交互,真正理解代码运行过程。在SWE-bench等重要测试中表现卓越,为AI编程助手的发展开辟了新方向。
当今最大的AI数据中心耗电量相当于一座小城市。美国数据中心已占全国总电力消费的4%,预计到2028年将升至12%。电力供应已成为数据中心发展的主要制约因素。核能以其清洁、全天候供电特性成为数据中心运营商的新选择。核能项目供应链复杂,需要创新的采购模式、标准化设计、早期参与和数字化工具来确保按时交付。
卡内基梅隆大学研究团队发现AI训练中的"繁荣-崩溃"现象,揭示陈旧数据蕴含丰富信息但被传统方法错误屏蔽。他们提出M2PO方法,通过改进数据筛选策略,使模型即使用256步前的陈旧数据也能达到最新数据的训练效果,准确率最高提升11.2%,为大规模异步AI训练开辟新途径。