Microsoft 研究人员提出了一种名为管理保留内存 (MRM) 的新概念 - 这是一种具有短期持久性的存储级内存 (SCM),专门针对 AI 基础模型工作负载进行 IO 优化。
Microsoft 首席研究软件工程师 Sergey Legtchenko 和其他研究人员在 Arxiv 上发表的论文中描述了 MRM,旨在解决 AI 集群中高带宽内存 (HBM) 的局限性。他们指出,HBM "由于多个原因对 AI 工作负载来说并不理想",它"在写入性能方面过度配置,但在密度和读取带宽方面配置不足,同时每比特能耗显著。由于制造复杂性,其成本也很高,良率低于 DRAM。"
研究人员表示,SCM 方案 - 如英特尔已停产的 Optane 以及潜在的 MRAM、ReRAM 或 PCM (相变存储器) 替代方案 - 都假定在内存 (需要持续供电刷新以保留数据的易失性 DRAM) 和存储 (长期保存数据,以年计) 之间存在明显的界限。
他们说:"这些技术传统上提供长期持久性 (10 年以上),但 IO 性能和/或耐久性较差。" 例如:"闪存单元的保留时间超过 10 年,但这是以牺牲每个存储单元的读写吞吐量为代价的,相比 DRAM 要低。这些特性意味着 DRAM 用作处理器的内存,而闪存用于二级存储。"
但从保留时间来看,这种界限实际上不必如此明显。保留时间存在一个从零到数十年甚至更长的连续谱。DRAM 在需要刷新之前确实会短暂保留数据。研究人员写道:"非易失性是存储设备的一个关键属性,但在存储单元层面上这个概念其实具有误导性。对所有技术而言,存储单元只是提供一个保留时间,这是一个从 DRAM 的微秒到多年的连续体。"
通过默认支持这种明显的内存-存储分界概念,"支撑 SCM 的技术被迫要实现非易失性,要求其保留时间达到十年或更长。不幸的是,实现这种高保留时间需要在写入和读取延迟、能源效率和耐久性等其他指标上做出权衡。"
对于像推理这样的 AI 工作负载来说,具有非易失性的通用 SCM 是不必要的。这类工作负载需要高性能的模型权重和 KV 缓存数据顺序读取,但写入性能要求较低。由于此类工作负载规模巨大,需要一个新的内存类别,因为 HBM 的每比特读取能耗太高,而且"成本高昂,良率挑战显著"。
Microsoft 研究人员表示,他们理论上的 MRM "与易失性 DRAM 不同,它可以在断电时保留数据,且不会在频繁的单元刷新中浪费能量,但与 SCM 不同,它并不针对长期保留时间。由于大多数推理数据无需长期保存,保留时间可以放宽到几天或几小时。作为回报,MRM 具有更好的耐久性,并致力于在读取吞吐量、能源效率和容量等关键指标上超越 DRAM (和 HBM)。"
他们指出:"由于 IO 是大规模且顺序的,因此不需要字节寻址",这表明块寻址结构就足够了。
研究人员正在理论上定义一个新的内存类别,表示在内存-存储层次结构中存在一个特定于 AI 基础模型的空白,可以用适当的半导体技术来填补。这"为这一应用领域开启了更好内存的计算机架构研究领域。"
论文中的图表"显示了现有内存/存储技术的耐久性与工作负载耐久性要求之间的比较。在适用的情况下,我们区分了现有设备中观察到的耐久性和技术所展示的潜力。"耐久性是指可以持续进行写入循环的时间长度。"HBM 在耐久性方面过度配置,而现有的 SCM 设备虽然不能满足耐久性要求,但底层技术具有实现这一目标的潜力。"
Microsoft 研究人员表示:"我们明确不局限于特定技术,而是强调一个机会空间。这是对从研究底层存储单元技术的人员,到思考内存控制器的人员,再到设计访问内存的软件系统的人员的行动召唤。为 AI 时代更好的内存而展开跨层级协作。"
他们总结道:"我们提出了一种可以与 HBM 共存的新型内存类别 - 管理保留内存 (MRM),它能够利用最初为 SCM 提出的内存技术,但通过权衡保留时间和写入吞吐量等指标,来改善这些 AI 工作负载所需的关键性能指标。通过放宽保留时间要求,MRM 有可能让现有提出的 SCM 技术提供更好的读取吞吐量、能源效率和密度。我们希望这篇论文能够真正开启对存储单元技术和内存芯片设计创新的新思维,专门针对 AI 推理集群的需求。"
好文章,需要你的鼓励
在Meta Connect大会上,Meta展示了新一代Ray-Ban智能眼镜的硬件实力,配备神经腕带支持手势控制,电池续航翻倍,摄像头性能提升。然而AI演示却频频失败,包括Live AI烹饪指导、WhatsApp通话和实时翻译功能都出现问题。尽管Meta在智能眼镜硬件方面表现出色,但AI软件仍远未达到扎克伯格提出的"超级智能"目标。文章建议Meta考虑开放AI生态,允许用户选择其他AI服务商,这可能帮助Meta在AI硬件市场获得优势。
DeepSeek-AI团队通过强化学习技术开发出DeepSeek-R1系列推理模型,无需人工标注即可自主学习复杂推理。该模型在数学、编程等领域表现卓越,在AIME 2024中达到79.8%准确率,编程能力超越96%人类选手。研究团队还通过知识蒸馏技术将推理能力传递给小模型,使7B参数模型也能超越GPT-4o。这项突破为AI推理能力发展开辟新路径。
英伟达同意以50亿美元收购英特尔股份,双方将合作开发多代数据中心和PC产品。英伟达将以每股23.28美元的价格收购约4%的英特尔股份,成为其最大股东之一。两家公司将通过NVLink接口整合各自架构,实现CPU和GPU间的高速数据传输。英特尔将为英伟达AI平台定制x86处理器,并开发集成RTX GPU的x86系统级芯片,用于消费级PC市场。
微软研究院推出rStar-Math系统,通过创新的"深度思考"训练方法,让小型AI模型在数学推理能力上达到甚至超越OpenAI o1水平。该系统采用代码验证、过程偏好模型和四轮自进化训练,将70亿参数模型的数学能力从58.8%提升至90.0%,在美国数学奥林匹克竞赛中达到前20%水平,证明了精巧方法比模型规模更重要,为AI发展开辟了新路径。