有分析师表示,XPoint和其他永久内存技术成为服务器设计标准的前景正在受到阻碍,因为这些部分成本太高。
因为这是小批量生产的,所以不会出现规模经济使其成本更低一些。
Object Analysis分析师Jim Handy在1月份的SNIA闪存高峰会上解释了这一点,并从内存层开始分析。
Objective Analysis内存层的幻灯片
这个图表显示了在一个以性能定义的领域的内存和存储技术,也就是带宽(垂直访问)和成本(横轴)。
从左到右有一个对角线,从底部的磁带(慢速低成本)到磁盘、SSD、DRAM和缓存层到L1缓存,这是图表上最快和也是成本最高的部分。
在任何时候任何点想要冲入内存层的新技术都要比它之下的技术性能更高,比其上的成本更低。
我们已经看到NVDIMM试图填补SSD-DRAM的差距,但普遍失败了——例如Diablo Technologies。
Handy表示,在2004年前后NAND也遭遇了同样的问题,在此之前SLC(1位/单元)规格下,要比DRAM(每GB成本)成本更高,尽管一个100毫米模片采用了44纳米工艺、可保存8GB的数据,相比之下同样的DRAM模片可保存4GB数据。两倍的数量意味着成本减半,但实际上并没有——因为没有足够的产量来实现规模经济。
Handy表示,2004年,NAND闪存晶圆的数量达到DRAM晶片数量的三分之一,我们看到了一个交叉点:
自从NAND和DRAM价格曲线分开之后,MLC(2位/单元)、TLC(3位/单元)和3D NAND(更多位/芯片)也加速了分离。
后来出现的永久内存(PM)技术的制造成本很高,因为它涉及到新材料和新工艺,这使其更加昂贵,这就延长了获得制造规模经济所需的时间。
制造更多,支持更多
对于XPoint来说,NAND、NVDIMM-N以及其他针对填补DRAM-NAND空白的永久内存技术带来的经验教训,就是其制造产量需要足够高以提供一个能够填补内存层图表上空白的性价比:
Handy认为,其制造量需要接近DRAM,还需要软件支持,特别是永久内存,要支持运行在Linux、Windows和VMware上。最初的PM占用是针对性能的,并且要求比NAND性能更高的速度和低于DRAM的价格。
Handy认为,在XPoint实现这一点之前是不会普及的。他表示,英特尔有足够的动力来实现这一目标。
评论
如果三星能够使其Z-SSD价格足够便宜,那么它可以比XPoint更快地填补内存层上的DRAM与SSD之间的空白,并防止XPoint成为主流,而三星在开发自己的后NAND永内存技术以赶超XPoint。
其次,与XPoint竞争的技术,如STT-RAM、ReRAM和相变内存都还在开发中,除非有一个实际的路径来制造影响力。这是一个严酷的世界。
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
微软亚洲研究院开发出革命性的认知启发学习框架,让AI能够像人类一样思考和学习。该技术通过模仿人类的注意力分配、记忆整合和类比推理等认知机制,使AI在面对新情况时能快速适应,无需大量数据重新训练。实验显示这种AI在图像识别、语言理解和决策制定方面表现卓越,为教育、医疗、商业等领域的智能化应用开辟了新前景。