有分析师表示,XPoint和其他永久内存技术成为服务器设计标准的前景正在受到阻碍,因为这些部分成本太高。
因为这是小批量生产的,所以不会出现规模经济使其成本更低一些。
Object Analysis分析师Jim Handy在1月份的SNIA闪存高峰会上解释了这一点,并从内存层开始分析。
Objective Analysis内存层的幻灯片
这个图表显示了在一个以性能定义的领域的内存和存储技术,也就是带宽(垂直访问)和成本(横轴)。
从左到右有一个对角线,从底部的磁带(慢速低成本)到磁盘、SSD、DRAM和缓存层到L1缓存,这是图表上最快和也是成本最高的部分。
在任何时候任何点想要冲入内存层的新技术都要比它之下的技术性能更高,比其上的成本更低。
我们已经看到NVDIMM试图填补SSD-DRAM的差距,但普遍失败了——例如Diablo Technologies。
Handy表示,在2004年前后NAND也遭遇了同样的问题,在此之前SLC(1位/单元)规格下,要比DRAM(每GB成本)成本更高,尽管一个100毫米模片采用了44纳米工艺、可保存8GB的数据,相比之下同样的DRAM模片可保存4GB数据。两倍的数量意味着成本减半,但实际上并没有——因为没有足够的产量来实现规模经济。
Handy表示,2004年,NAND闪存晶圆的数量达到DRAM晶片数量的三分之一,我们看到了一个交叉点:
自从NAND和DRAM价格曲线分开之后,MLC(2位/单元)、TLC(3位/单元)和3D NAND(更多位/芯片)也加速了分离。
后来出现的永久内存(PM)技术的制造成本很高,因为它涉及到新材料和新工艺,这使其更加昂贵,这就延长了获得制造规模经济所需的时间。
制造更多,支持更多
对于XPoint来说,NAND、NVDIMM-N以及其他针对填补DRAM-NAND空白的永久内存技术带来的经验教训,就是其制造产量需要足够高以提供一个能够填补内存层图表上空白的性价比:
Handy认为,其制造量需要接近DRAM,还需要软件支持,特别是永久内存,要支持运行在Linux、Windows和VMware上。最初的PM占用是针对性能的,并且要求比NAND性能更高的速度和低于DRAM的价格。
Handy认为,在XPoint实现这一点之前是不会普及的。他表示,英特尔有足够的动力来实现这一目标。
评论
如果三星能够使其Z-SSD价格足够便宜,那么它可以比XPoint更快地填补内存层上的DRAM与SSD之间的空白,并防止XPoint成为主流,而三星在开发自己的后NAND永内存技术以赶超XPoint。
其次,与XPoint竞争的技术,如STT-RAM、ReRAM和相变内存都还在开发中,除非有一个实际的路径来制造影响力。这是一个严酷的世界。
好文章,需要你的鼓励
CoreWeave发布AI对象存储服务,采用本地对象传输加速器(LOTA)技术,可在全球范围内高速传输对象数据,无出口费用或请求交易分层费用。该技术通过智能代理在每个GPU节点上加速数据传输,提供高达每GPU 7 GBps的吞吐量,可扩展至数十万个GPU。服务采用三层自动定价模式,为客户的AI工作负载降低超过75%的存储成本。
IDEA研究院等机构联合开发了ToG-3智能推理系统,通过多智能体协作和双重进化机制,让AI能像人类专家团队一样动态思考和学习。该系统在复杂推理任务上表现优异,能用较小模型达到卓越性能,为AI技术的普及应用开辟了新路径,在教育、医疗、商业决策等领域具有广阔应用前景。
谷歌DeepMind与核聚变初创公司CFS合作,运用先进AI模型帮助管理和改进即将发布的Sparc反应堆。DeepMind开发了名为Torax的专用软件来模拟等离子体,结合强化学习等AI技术寻找最佳核聚变控制方式。核聚变被视为清洁能源的圣杯,可提供几乎无限的零碳排放能源。谷歌已投资CFS并承诺购买其200兆瓦电力。
上海人工智能实验室提出SPARK框架,创新性地让AI模型在学习推理的同时学会自我评判,通过回收训练数据建立策略与奖励的协同进化机制。实验显示,该方法在数学推理、奖励评判和通用能力上分别提升9.7%、12.1%和1.5%,且训练成本仅为传统方法的一半,展现出强大的泛化能力和自我反思能力。