随着3D Xpoint内存芯片逐渐由实验环境迈向生产性代工体系,一位IM Flash高管就这项新兴内存技术、未来发展路线以及制造工作中的实际困难披露出更多细节信息。
英特尔与美光双方于去年7月公布了其所谓3D Xpoint技术,其被定义为一套新型内存架构,旨在弥补DRAM与闪存之间的定位空缺,同时提供与NAND相接近的存储密度并显著提升性能表现且降低延迟水平。"硫系材料与Ovonyx转换机制成为这项技术中最为核心的组成部分,而与之相关的最初研究工作早在上世纪六十年代就已经开始推进,"IM Flash公司联度CEO Guy Blalock在一次由芯片厂商高管参加的年度会议当中指出。
XPoint走向全面量产大约需要12到18个月周期,Blalock表示。他同时指出,目前生产此类芯片以及3D NAND设备还面临着一系列挑战--二者皆由合营企业犹他州Lehi代工厂负责生产。
"我们正在深入探索以推动这些新型产品在未来成为实际可行的解决方案,"Blalock指出。不过他同时承诺称,XPoint样品"即将正式推出……这能够帮助研发人员拿出更多时间来解决目前面临的种种难题,"他解释称。
就目前来看,使用新型材料的一大弊端就是其容易带来交叉污染。为了解决这项威胁,"我们需要增加大量工艺步骤层,而这些层就如同人的心血管一样,很容易沉积大量易于扩散并引发堵塞的物质,"Blalock表示。他同时证实称,去年曾经出现的猜测确实说到了点子上。
3D Xpoint采用多达100种新型材料,这也意味着供应链会变得更加复杂。"对于某些产品,我们可能在同一位置只拥有一家原材料供应商……而且很多客户根本无法承受由此带来的风险水平--他们希望能拥有更多原材料来源或者供应商,从而摊薄自然灾害可能给生产及材料供应造成的影响,"他表示。
XPoint与3D NAND在垂直设计上的独特性意味着其生产流程需要包含更多流程与步骤,这将使得整套代工体系的生产能力下降约15%。"我们从来没有见过哪一种技术成果会给我们的产量带来如果巨大的拖累,"Blalock表示。
而更多新型设备的引进则可能令代工体系中的前期资本投入与占地空间需求较上代新型闪存技术增加3到5倍。除此之外,下一代XPoint预计还将要求比3D NAND生产线更为严苛的资本投入与占地空间规模。

3D NAND与XPoint显著提升占地空间与成本投入要求。(图片来源:IM Flash公司)
因此,IM Flash公司正积极敦促设备制造商提升自身系统生产能力,从而弥合这种差距。为了保证代工体系的产出能力不受影响,第一代产品必须要能够利用湿法工艺在26平方英尺的楼面空间之内实现每小时180片的产量,而第三代组件的生产能力则需要提升至20平方英尺内每小时1000片。
"湿法工艺设备的实际成效非常出色……(但)干蚀刻工艺无论如何调整都很难满足目前我们面对的生产力提升要求,"Blalock表示,具体来讲其目标是将传统的20%到30%效率提升一口气变为2至3倍。
这种挑战可能会给XPoint的发展路线图造成重要影响,Blalock预测称3D NAND较为直观的发展进程是由32层逐步提升至48层乃至64层。XPoint最初采用双层堆栈设计,而且"我们清楚地看到了立足于设计调整、尺寸缩小以及光蚀刻技术提升等所带来的四层堆栈可能性……如果EUV能够全程配合,那么未来的三代3D XPoint发展流程也都将顺理成章,"他表示。
而在基于NVMe的固态驱动器方面,XPoint芯片能够提供超过95000 I/O每秒操作能力且延迟水平仅为9毫秒,相比之下闪存芯片的IOPS为13400、延迟水平则为73毫秒。至少从直观角度看,这意味着服务器之上负责运行大数据分析、机器学习乃至高端游戏的各类应用程序都将进入全新的纪元。
第二代XPoint则很可能与DRAM配合作为某种混合型主内存面向各类应用程序,并凭借着可观的存储密度及延迟水平带来种种助益,Blalock展望称。
XPoint的DIMM版本方案则能够在双插槽至强服务器内实现高达6 TB主内存,且其实现成本仅相当于DRAM的一半左右,英特尔公司数据中心部门总经理Diane Bryant在去年9月指出,并宣称此类服务器将于2017年年内投放市场。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。