与英特尔连同美光公司打造的3D XPoint相比,韩国闪存与DRAM芯片制造商三星的Z-NAND究竟表现如何?
Z-NAND为三星打造的优化型闪存技术,在本质上属于SLC(单层单元)配合定制化控制器共同构成的高速存储方案。
Optane的出现令Z-NAND无法继续保持沉默,而这场广泛的新一代存储技术竞赛也由此拉开序幕。
XPoint超越NAND闪存的优势之一,在于其拥有更低的访问延迟——读取与写入延迟皆为10微秒,相比之下NVMe SSD的读取延迟则高达110至120微秒。将延迟降低至十分之一自然是一项非常突出的竞争优势。
下面我们通过表格对Optane P4800X驱动器与三星的Z-NAND SZ985作出比较,且皆选择二者的插入卡形式以及类似的容量水平:
|
技术 |
容量 |
读取/写入 IOPS |
读取/写入带宽 |
使用寿命 |
读取/写入延迟 |
|
|
Optane P4800X |
3D XPoint |
750 GB |
55万 |
2.4/2.0 GB每秒 |
41 PBW |
10/10微秒 |
|
SZ985 |
SLC NAND |
800 GB |
75万/17万 |
3.2/3.2 GB每秒 |
42.7 PBW |
12-20/16微秒 |
SZ985的使用寿命结果计算自其每天30次全盘写入以及假定五年的整体质保周期。
相较于P4800X,这款三星驱动器拥有更高的随机读取IOPS,而随机写入IOPS的比较优势甚至更为明显。事实上,其在连续读取/写入带宽方面甚至达到了Optane这位对手的两倍半到三倍。
三星SZ985驱动器
如果我们的计算结果无误,那么二者的使用寿命基本相当,Optane的延迟水平略低于Z-NAND——但二者的差距并不算大。
Z-NAND驱动器的最差一项为20/16微秒读取/写入延迟,但在一般场景当中,这一水平仍然远远好于传统NAND闪存的110到120微秒。
三星公司建议将这款产品用于加速MongiDB等数据库的IO。而在对处家RocksDB键值存储库(属于MongoDB的一套后端)进行测试时,三星表示相较于原有三星PM1725a SSD(一款48层3D TLC NAND产品),其能够将数据吞吐量提升2倍,延迟则缩短至原本的一半。
而在被用于缓存Memcached与Fatcache时,其能够提升1.6倍的数据吞吐量提升,同样显著优于PM1725a。
这款产品未来能否获得成功,在很大程度上取决于其实际售价以及可用的软件支持选项。如果三星公司能够充分拉开与Optane之间的价格差距,提供可靠的产品供应并展现出良好的系统软件支持能力,那么其很可能大量夺取Optane的市场份额。根据我们的猜测,Z-NAND DIMM也可能成为三星公司新产品的理想发展方向——当然,前提是其能够获得服务器OEM厂商的支持,同时有能力搞定操作系统与系统软件方面的问题。
NetApp公司的Plexistor服务器存储级内存(简称SCM)加速项目目前正在测试中使用Optane与Z-NAND存储介质。英特尔/美光与三星之间正爆发一轮新的竞争,而结果目前尚无法断言。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。