三星公司在与磁盘驱动器的抗争当中再次发力,宣布将推出90层以上3D NAND芯片产品,而1 Tbit与QLC(即四级单元)芯片也在积极开发当中。
构建3D NAND芯片带来的一大挑战,在于如何访问结构深处的存储单元。Object Analysis的Jim Handy在2013年11月发表的文章中讨论了这个“将外围逻辑(行解码器)连接至位于bit阵列内某层的全部控制门”问题。
他写道,“我们可以将问题归结为:我们无法从芯片一侧的各层处直接连接至下层的CMOS电路。相反,我们必须创建一套露台结构以露出并连接每一层。这些连接将通过阶梯状图案蚀刻至层内,并通过下向通孔以实现各层间的互连。”
所谓通孔,即垂直通孔,可通过蚀刻模具中的层以形成露台或阶梯结构。此YouTube视频描述了其复杂的实现过程。
阶梯拥有特定的宽度与高度。层数越多、阶数越多,芯片的厚度也就越大。因此,96层芯片的基板比48层芯片更宽,且高度亦为后者的约2倍。
Handy指出,“三星公司的全新SSDP,或者说阶梯式分割模式减少了光刻步骤,同时缩小了阶梯所占用的芯片面积。”
其基本结构在于双路阶梯——即可以在两个方向上升或下降。
他给出的示意图如下:
Handy表示,“三星已经减少了其64层NAND芯片的尺寸,同时降低了工艺复杂度与成本。”这一切都将帮助该公司真正摆脱成本高昂的串叠制造方法。
这家韩国芯片制造商表示,其生产艺将拥有更好的原子层沉积效果,因此制造生产率将比64层芯片还高30%。其已经成功将各个存储单元的高度降低20%,同时防止单元之间产生串扰。
三星公司并没有透露这款新芯片中的实际层数,只是表示会超过90层——最终数字可能为96层或者接近96层。
这款V-NAND芯片为256 Gbit单栈设备,相比之下西部数据与东芝提供的96层芯片样品则由两块48层组件堆叠而来(串叠)。美光公司目前同样在开发96层芯片技术。
根据Wells Fargo分析师Aaron Rakers的说法,西部数据/东芝预计将在本季度正式进行96层芯片的生产,美光则表示其96层芯片将在今年年底前出货。东芝方面的原型256 Gbit TLC 96层芯片最早公布于2017年6月。
三星公司的芯片采用3D电荷捕获闪存(简称CTF)单元,内置金字塔或阶梯式边缘结构,且垂直通孔直径为数百纳米。这家半导体巨头表示,其中将可容纳超过850亿个TLC(三级单元)闪存存储单元。
这款芯片的工作电压为1.2伏,低于三星64层V-NAND芯片的1.8伏,这意味着二者的能效大致相同。但其写入速度提升了约30%,达到500微秒。该公司表示,其读取响应时间为50微秒。
该芯片还配备有Toggle DDR 4.0接口,能够以每秒1.4 Gbit的速率进行数据传输——这一水平较64层产品快40%。
三星电子闪存产品与技术执行副总裁Kye Hun Kyung在一份声明中指出,“除了我们今天公布的前沿进展之外,我们还准备在V-NAND产品中增添1 Tb与QLC(四级单元)产品。”
美光公司从今年5月开始发售采用64层3D技术的QLC 5210 ION SSD。西部数据与东芝则于去年7月与6月分别公布了QLC芯片的设计原型。
该芯片的目标市场包括超级计算、企业服务器以及高端智能手机。在我们看来,使用96层QLC 3D NAND芯片的SSD将进一步冲击万转磁盘驱动器以及快速访问近线磁盘存储阵列的市场份额。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。