全新 DDR5 服务器内存可最大限度地提高 AI、高性能计算和其他数据密集型应用及工作负载的性能
关键优势:
· 随着 CPU 内核数量不断增加,改进后的内存架构相比 DDR4 【1】 可将带宽提高近一倍,进而提高效率
· JEDEC 速度提高至 4800MT/s 【2】,比 DDR4 快 1.5 倍【3】
· 得益于高达 64GB 的模组容量,能够支持内存密集型工作负载【4】
· DDR5 的创新架构改进和模组内建电源管理功能,有助于优化系统整体运行性能
2022 年 7 月 7 日,上海 — 内存和存储解决方案领先供应商 Micron Technology, Inc.(美光科技股份有限公司,纳斯达克股票代码:MU)今日宣布,面向商业和工业渠道合作伙伴推出美光 DDR5 服务器 DRAM,以支持下一代英特尔和 AMD DDR5 服务器及工作站平台的行业资格认证。相比 DDR4 DRAM,DDR5 内存产品能够将系统性能提高至多85%。【5】美光全新 DDR5 服务器内存能够为人工智能(AI)、高性能计算(HPC)和数据密集型应用提供 DDR4 技术所不具备的更高 CPU 计算能力与内存带宽,从而最大限度地提升这些应用的性能。
美光商用产品事业部副总裁兼总经理 Teresa Kelley 表示:“随着数据量持续呈指数级增长,能否将数据转化为洞察对业务成功至关重要。数据中心运营者需要借助先进的内存能力与处理器技术的进步来最大限度地提高平台性能。美光 DDR5 服务器 DRAM 可提供海量带宽,助力管理最为内存密集型的应用。美光始终走在 DDR5 内存技术发展前沿,引领业界向 DDR5 内存技术过渡,并致力于支持数据中心客户和渠道合作伙伴完成服务器 DDR5 DRAM 资格认证及准备工作。”
作为全球内存行业领导者,美光从一开始便与电子元件工业联合会(JEDEC)联手确立了 DDR5规范,并通过美光 DDR5 技术赋能计划(Technology Enablement Program,TEP)——业界唯一的 DDR5 生态系统赋能计划面向广泛的市场领域推广早期 DDR5 资格认证。目前,美光 DDR5 技术赋能计划已经吸引了来自全球 160 多家企业的 400 多位成员参与,旨在帮助合作伙伴简化 DDR5 内存设计并应对集成挑战。所有美光服务器 DDR5 DRAM 均针对下一代产品系列进行了优化,并通过了模组和颗粒测试,以达到关键任务型服务器标准。
目前,采用 DDR5 内存模块的服务器正在数据中心环境中接受评估和测试,预计将在 2022 年下半年加快采用速度。DDR5 的初始数据传输速率为 4800MT/s,预计后续还将进一步提高,以更好地满足未来数据中心工作负载的需求。客户即刻可通过美光全球商业和工业渠道合作伙伴获得美光 DDR5 服务器内存产品。
参考资料
【1】 4800MT/s DDR5 的带宽约是 3200MT/s DDR4 模块的 1.87 倍。
【2】 初始发布的速率为 4800MT/s,未来预计可达 5600MT/s 和 6400MT/s。
【3】 初始发布的 DDR5 速度达 4800MT/s,比 DDR4 模块的 3200MT/s 快 1.5 倍(速度提高 50%)。
【4】 初始发布的容量使用 16Gb 容量的内存颗粒。
【5】 4800MT/s DDR5 的带宽约是 3200MT/s DDR4 模组的 1.87 倍。
关于 Micron Technology Inc.(美光科技股份有限公司)
美光科技是创新内存和存储解决方案的业界领导厂商,致力于通过改变世界使用信息的方式来丰富全人类生活。凭借对客户、领先技术、卓越制造和运营的不懈关注,美光通过 Micron 和 Crucial 品牌提供 DRAM、NAND 和 NOR 等多个种类的高性能内存以及存储产品组合。我们通过持续不断的创新,赋能数据经济发展,推动人工智能和 5G 应用的进步,从而为数据中心、智能边缘、客户端和移动应用提升用户体验带来更大的机遇。
好文章,需要你的鼓励
南洋理工大学研究团队开发了WorldMem框架,首次让AI拥有真正的长期记忆能力,解决了虚拟世界模拟中的一致性问题。该系统通过记忆银行存储历史场景,并使用智能检索机制,让AI能准确重现之前的场景和事件,即使间隔很长时间。实验显示在Minecraft和真实场景中都表现出色,为游戏、自动驾驶、机器人等领域带来广阔应用前景。
AWS通过升级SageMaker机器学习平台来扩展市场地位,新增观测能力、连接式编码环境和GPU集群性能管理功能。面对谷歌和微软的激烈竞争,AWS专注于为企业提供AI基础设施支撑。SageMaker新功能包括深入洞察模型性能下降原因、为开发者提供更多计算资源控制权,以及支持本地IDE连接部署。这些更新主要源于客户需求,旨在解决AI模型开发中的实际问题。
MTS AI研究团队提出RewardRanker系统,通过重排序模型和迭代自训练显著提升AI代码生成质量。该方法让13.4B参数模型超越33B大模型,在多种编程语言上表现优异,甚至在C++上超越GPT-4。通过引入困难负样本和PPO优化,系统能从多个代码候选中选出最优方案,为AI编程助手的实用化奠定基础。