Western Digital 即将分拆的 Sandisk 部门举行了投资者日会议,透露了今年晚些时候将推出的三款新型 SSD 的细节,以及高带宽闪存 (HBF) 的计划,这是相当于高带宽内存 (HBM) 的 NAND 等效产品。
为了在分拆前向投资者证明其业务的稳健性,Sandisk 高管展示了他们对市场、技术趋势和产品策略的看法,以显示其技术对客户的吸引力和持续相关性。
Sandisk 最新的 3D NAND 产品称为 BiCS8,拥有 218 层,用于制造 2Tb QLC 芯片,据称是目前量产中容量最大的 NAND 芯片。Sandisk 还预览了超过 300 层的 BiCS9 世代产品,将用于制造 1Tb TLC 芯片。一般来说,WD/Sandisk 将 TLC NAND 用于性能驱动器,QLC NAND 用于注重容量的驱动器。公司展示了预测客户端 SSD 市场中 QLC 占比增长的幻灯片,以及 PCIe gen 5 的深入渗透情况。
这将应用于第一款新产品,一款支持 PCIe gen 4 接口的 PC QLC 产品,容量包括 512GB、1TB 和 2TB。
这款注重容量的驱动器将于今年晚些时候发货,同时还有一款使用更快 TLC NAND 的性能导向型 PC gen 5 产品,容量包括 512GB、1TB、2TB 和 4TB。上述幻灯片图像中包含了初步性能数据。
此外还预览了一款面向数据中心的大容量驱动器 UltraQLC DC SN670:
UltraQLC 的特点在于其控制器具有硬件加速器,可扩展到 64 Die/Channel 级别,能够根据工作负载需求调整功率,并包含"集成高级切换模式总线复用控制"。切换模式 NAND 使用双倍数据速率接口实现更快的数据传输,而多路复用器 (Mux) 管理数据通道。Sandisk 版本的这项技术将更高效地管理 NAND-SSD 控制器数据流。
SN670 使用 PCIe gen 5 总线,容量为 64TB 或 128TB,可用容量分别为 61.44TB 或 122.88TB。计划于 2025 年第三季度发货。去年 11 月,Solidigm 和 Phison 都宣布推出 122.88TB 的 SSD。
Sandisk 展示了容量 eSSD 的发展规划,2025 年达到 128TB,2026 年 256TB,2027 年 512TB,之后达到 1PB,但未指明具体年份。
在未来技术方面,Sandisk 谈到了 3D Matrix Memory (DRAM),用于解决内存墙问题(内存容量和带宽之间日益增长的差距)。该公司正与 IMEC 合作开发这项技术,进行 4-8Gbit 容量的 CMOS 开发项目。
公司还在开发带宽优化的 NAND,即 HBF 概念,声称可以在相同成本下提供与 HBM 相当的带宽,但容量是 HBM 的 8 至 16 倍。
实际上,叠层 HBM DRAM 将全部或部分被 NAND 层取代,通过逻辑芯片和中间层与主机 GPU/CPU/TPU 连接。8 层堆叠可以有 6 个 512GB NAND 芯片和 2 个 HBM 芯片,提供 3.12PB 的总容量,相比之下 8Hi HBM 芯片的总容量为 192GB。
全 HBF 8Hi 堆叠将具有 4PB 的容量。Sandisk 表示,具有 16 位权重的约 1.8 万亿参数的大语言模型需要 3.6PB 内存,可以装入 8Hi HBF 芯片中。如果设想在智能手机上运行 LLM,那么 640 亿参数的 MoE 模型可以装入手机中的 HBF 芯片。公司预见三代 HBF,第二代的容量是第一代的 1.5 倍,读取带宽提高 1.45 倍,第三代在这两个方面都是第一代的 2 倍。能源效率也将逐代提升。
HBF 与 HBM 不能直接兼容,但具有相同的电气接口,"只需要少量协议更改"。
Sandisk 希望帮助形成开放的 HBF 标准生态系统,正在组建一个由"行业名人和合作伙伴"组成的技术顾问委员会。
如果 HBF 理念得到推广,被 Micron、Samsung 和/或 SK hynix 采用,我们可能就会有一个接近存储级内存的概念。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。