东芝与西部数据的合资闪存代工厂已经开始制造96层3D NAND芯片,而两家合作伙伴正在此基础上积极生产四级单元(简称QLC)产品。其中仍在使用TLC的东芝公司发布一款三级单元的1 TB SSD,而率先迈入QLC时代的西部数据则拥有一款四级单元的1.33 Tb芯片。
东芝公司的XG6为一款单面M.2“口香糖”(22 x 80毫米)外形尺寸的产品,其属于XG5 M.2驱动器的换代方案。这款驱动器采用64层3D NAND芯片,容量选项分别为256 GB、512 GB以及1 TB。前后两代产品皆配备有一个NVMe接口。
尽管采用其512 Gb晶圆的96层TLC芯片在单位容量方面较64层方案提升了40%,但XG6驱动器的容量水平却仍与XG5保持一致。
与XG5相比,XG6的另一个奇怪之处在于其性能表现。XG5的随机读取IOPS高达14万4千次,随机写入IOPS则高达11万9250次——这属于典型的随机读取速度高于写入速度的模式。而XG6的参数分别为随机写入IOPS为35万5千次,随机读取IOPS为36万5千次。
XG5的连续读取与连续写入传输带宽分别为每秒3 GB与每秒2.1 GB,XG6则分别为每秒3.18 GB与每秒2.96 GB——这又重新回归了读取快于写入的典型模式。
东芝公司还拥有一款XG5-P,即高端M.2 2 TB驱动器,其中采用64层TLC 3D NAND芯片。因此,我们希望能够看到未来推出采用96层TLC芯片的XG6-P,其容量或将达到3 TB水平。
XG6提供五年质保与150万小时平均故障前运行时长。具体使用寿命信息目前尚不明确。东芝公司正在向OEM厂商提供样品,这款驱动器将主要用于PC/移动端、嵌入式设备以及数据中心场景。
东芝公司表示,其正在开发一款QLC(四级单元)芯片,这将把现有TLC芯片的容量进一步提升三分之一。
西部数据公司目前拥有一款采用同一晶圆厂出产芯片的1.33 Tb QLC芯片,其表示这是目前业界内存在的存储容量最高的单一3D NAND芯片。
这款芯片现已开始提供样品,并计划于今年年底之前批量出货以用于SanDisk品牌的消费级产品。西部数据方面表示,预计这些芯片将出现在零售、移动、嵌入、客户以及企业级产品线当中。SanDisk Ultra目前提供的最高容量水平为2 TB,我们预计新芯片的推出可能将其容量提升至3 TB。
作为东芝存储器集团下辖的子公司,东芝美国有限公司亦拥有一套96层QLC芯片的原型设计方案。该公司表示其单芯片容量为1.33 Tb,与西部数据保持一致。东芝方面将这些芯片每16个一组堆叠在同一封装之内,从而生产容量达2.66 TB的“超级芯片”。
相关样品将于今年9月向SSD及控制器供应商交付,全面量产时间预计为2019年。
本月早些时候,三星公司表示其正在生产90层以上3D NAND芯片,并着手开发QLC方案。美光公司刚刚进入96层领域,目前拥有2.5英寸ION 5210 QLC SSD,其采用64层技术且容量为7.68 TB。我们预计未来推出的96层版本可能将容量提升至10 TB水平。
英特尔公司发布推文表示,其目前正在生产数据中心级QLC SSD,且目标是开发出容量达20 TB的2.5英寸SSD。更多细节预计将在8月6日至9日召开的Flash Memory峰会上公布。
可以看到,我们正全面进入96层与QLC闪存时代,由SATA与SAS到NVMe的过渡也在持续进行当中。感谢闪存的蓬勃发展为我们带来一系列振奋人心的好消息。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。