美光正在开发232层3D NAND,并就500层以上闪存制定发展路线图。
所谓3D NAND,就是通过在垂直堆栈中将多组存储单元相互层叠以实现容量递增。闪存芯片内的层数越多,总存储容量就越大。目前各大厂商均在制造100层以上芯片,而且各自完成了更高层数的闪存发展布局。
昨天,西部数据刚刚透露正着手生产162层NAND,200层以上芯片也即将与用户见面。
美光则在5月12日的投资者日活动中,透露了其NAND及DRAM发展路线图的详细信息。该公司正在批量生产176层闪存芯片,而作为第五代3D NAND的此款芯片将在2022年之内完成自己的历史使命。
美光在活动中公布了大量幻灯片,可以看到其开发计划已经延伸至500层以上芯片,只是尚未披露具体时间表:
其中双堆叠技术是指将两块3D NAND裸片堆叠在一起,构成所谓“串堆叠”结构。这种设计能够克服半导体制造中的常见难题,例如通过蚀刻在多个层之间添加沟道孔。层数越多、孔深越大,可能导致沟道孔侧壁变形,影响NAND单元的正常工作。
美光表示,他们目前专注于QLC(四层单元)NAND的研发,并未提到西部数据正在研究、Soldigm已着手开发的PLC(五层单元)设计。我们认为这主要是因为美光较为谨慎,而非否定PLC NAND的可行性。
下表比较了各家NAND厂商间3D NAND产品的分层设计、发展历史和未来计划:
同一行闪存方案的起始制造日期基本接近
西数目前的3D NAND总层数略逊一筹,但212层与SK海力士的238层和美光的232层相比差异不大。更重要的是,西数产品在长、宽单元尺寸上更为小巧,只需要增加芯片高度就能容纳更多个层。这两项技术相结合,意味着西部完全可以在层数更低的情况下,将存储密度提高到等于甚至超越竞争对手的水平。
西数还有另一个隐性优势:每个层的构建都对应着一组制造工艺,因此涉及232组工艺的芯片在生产周期上必然长于212层设计。但除了工艺量,晶圆良品率、制造成本、芯片密度价格、耐用性和性能等指标也将最终闪存产品的成本与售价。
美光宣称,其232层技术已代表世界上最先进的NAND:
CuA = CMOS阵列
幻灯片中还展示了一款1 Tb (128 TB)的TLC芯片。美光在演示中并未提到分区SSD(ZNS SSD),但对外部控制器有所涉及,暗示NAND/SSD控制器将运行在主机系统内——这正是分区SSD的必要前提。预计采用232层NAND的SSD产品将在2022年年底出货。
本次投资者日活动并不涉及存储级内存,例如美光曾为英特尔制造的3D XPoint。但活动中美光谈到了CXL(Computer eXpress Link),而且其中一张幻灯片还在CXL连线的顶端出现了所谓“新兴内存”(emerging memory)字样:
活动中同样披露了“新型内存架构”和“CXL路线图专注于客户共同创新”的说法,但目前仍意义不明。根据猜测,这可能是说会推出专为客户定制、与CXL相关的存储设备。我们认为幻灯片中提到的“新兴内存”和“新型内存架构”可能指向存储级内存和/或3D DRAM。
Solidigm、西部数据和美光的NAND路线图,再次证明NAND和SSD技术及市场仍然保持着健康与活力。未来,我们还将迎来不断增长的闪存存储容量与数据传输速度。
好文章,需要你的鼓励
随着AI模型参数达到数十亿甚至万亿级别,工程团队面临内存约束和计算负担等共同挑战。新兴技术正在帮助解决这些问题:输入和数据压缩技术可将模型压缩50-60%;稀疏性方法通过关注重要区域节省资源;调整上下文窗口减少系统资源消耗;动态模型和强推理系统通过自学习优化性能;扩散模型通过噪声分析生成新结果;边缘计算将数据处理转移到网络端点设备。这些创新方案为构建更高效的AI架构提供了可行路径。
清华大学团队开发了CAMS智能框架,这是首个将城市知识大模型与智能体技术结合的人类移动模拟系统。该系统仅需用户基本信息就能在真实城市中生成逼真的日常轨迹,通过三个核心模块实现了个体行为模式提取、城市空间知识生成和轨迹优化。实验表明CAMS在多项指标上显著优于现有方法,为城市规划、交通管理等领域提供了强大工具。
Meta以143亿美元投资Scale AI,获得49%股份,这是该公司在AI竞赛中最重要的战略举措。该交易解决了Meta在AI发展中面临的核心挑战:获取高质量训练数据。Scale AI创始人王亚历山大将加入Meta领导新的超级智能研究实验室。此次投资使Meta获得了Scale AI在全球的数据标注服务,包括图像、文本和视频处理能力,同时限制了竞争对手的数据获取渠道。
MIT研究团队发现了一个颠覆性的AI训练方法:那些通常被丢弃的模糊、失真的"垃圾"图片,竟然能够训练出比传统方法更优秀的AI模型。他们开发的Ambient Diffusion Omni框架通过智能识别何时使用何种质量的数据,不仅在ImageNet等权威测试中创造新纪录,还为解决AI发展的数据瓶颈问题开辟了全新道路。