就在推出7.68TB QLC SSD仅仅数天之后,Micron(美光)公司就已经开始与英特尔进行NAND生产分离。美光公司首席执行官Sanjay Mehrotra及其高管和分析师分享了关于“New Micron”的未来愿景。
本周早些时候Mehrotra表示,市场正在向更多内存和存储需求转变。
他说:“边缘有数十亿台设备,不仅仅是个人电脑和智能手机,还有无人机、智能工厂、智能卡、智能城市,都在利用数据驱动数据经济......。”
他说,这其中最大的游戏规则改写者就是业界对深度学习/人工智能的集体尝试——“所有这些都是关于大规模大型数据池、快速处理以提供洞察力、为企业创造价值”。他将自然语言和计算机视觉处理作为“人工智能”类别下很显著的几个应用领域。他还提到另一个领域:自动驾驶。
Mehrotra向分析师们表示,与标准服务器相比,人工智能服务器需要6倍的DRAM和2倍的SSD。
美光认为,由于数据中心、移动设备、汽车和物联网领域的需求不断增长,这些年来一直呈现蓬勃发展的态势。
NAND并非全部......
Mehrotra谈到了他试图弥补美光以前滞后于行业发展所做的努力,并坦言美光在2D NAND方面已经落后于使用TLC内存的竞争对手。但至少现在来说情况不一样了,美光率先通过与英特尔的合作推出了QLC NAND。
美光表示将推动自己的技术发展以扩大现有的NAND和DRAM路线图,推进3D XPoint存储并开发新兴内存。此外美光还承诺提供高性能内存(HBM和图形卡),并管理NAND、SSD和3D XPoint等产品。
在描述XPoint的时候,Mehrotra的幻灯片重复了最初那个有争议的XPoint观点:10倍DRAM密度;1000倍的NAND耐用性,速度比NAND快10000倍。
美光表示,明年将交付NVMe客户端SSD,并通过NV-DIMM-N设备想永久内存转移。Micron还承诺在今年下半年推出1Ynm DRAM,并且还谈到了未来的1Znm工艺的优化、1αnm、技术集成和1β模块集成,并表示Micron已经有了清晰且自信的DRAM技术路线图,在多个节点上都有并行的进展。
96层NAND是Micron的第三代产品。美光宣称将利用Replacement Gate (RG)、CMOS阵列技术以及新的电荷陷阱单元技术、领先的裸片尺寸和性能特点,对4G 3D NAND进行性能和尺寸上的优化。层数没有透露,不过我们认为可能是128层左右。
与第三代96层NAND相比,第四代3D NAND的写入带宽将增加30%以上,每比特能耗降低40%多。
Mehrotra称,3D Xpoint和新兴内存产品将在2019年及以后出现,Micron在XPoint产品方面落后英特尔三年或更长时间。
展示给分析师的一张幻灯片上,显示出Micron新兴的内存产品和DRAM一样快,也更便宜。但技术基础是什么并没有透露。
美光新兴内存技术的幻灯片
开始与英特尔NAND制造联盟中脱离出来的美光,似乎正在成为一家更强大的半导体内存芯片和产品制造商。
好文章,需要你的鼓励
Turner & Townsend发布的2025年数据中心建设成本指数报告显示,AI工作负载激增正推动高密度液冷数据中心需求。四分之三的受访者已在从事AI数据中心项目,47%预计AI数据中心将在两年内占据一半以上工作负载。预计到2027年,AI优化设施可能占全球数据中心市场28%。53%受访者认为液冷技术将主导未来高密度项目。电力可用性成为开发商面临的首要约束,48%的受访者认为电网连接延迟是主要障碍。
MiroMind AI等机构联合研究团队提出了UniME-V2多模态嵌入学习新方法,通过让大型多模态语言模型充当"智能法官"来评估训练样本质量,解决了传统方法在负样本多样性和语义理解精度方面的问题。该方法引入软标签训练框架和困难负样本挖掘技术,在MMEB基准测试中取得显著性能提升,特别在组合式检索任务上表现出色,为多模态AI应用的准确性和用户体验改进提供了重要技术支撑。
亚马逊云服务宣布投资500亿美元,专门为美国政府构建AI高性能计算基础设施。该项目将新增1.3千兆瓦算力,扩大政府机构对AWS AI服务的访问,包括Amazon SageMaker、Amazon Bedrock和Claude聊天机器人等。预计2026年开工建设。AWS CEO表示此举将彻底改变联邦机构利用超级计算的方式,消除技术障碍,助力美国在AI时代保持领先地位。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。