SK hynix宣布推出321层QLC格式3D NAND,这引发了人们对Solidigm在该组织中角色的疑问。
Solidigm是企业级高容量SSD的先驱,2023年7月推出了61.44TB QLC驱动器,2024年11月推出了122TB驱动器,两者都使用了192层QLC 3D NAND。这项NAND技术于2022年中期推出。从那时起,其他NAND供应商已经超越了200层,使Solidigm落后。SK hynix在2023年中期推出了238层,现在正在谈论321层产品和超高容量SSD,紧随Sandisk和Kioxia推出256TB SSD公告之后。
这引发了几个问题:
如果SK hynix现在在超高容量SSD方面领先,那么Solidigm在SK hynix组织中的角色是什么?
Solidigm会进入200层以上甚至300层以上的领域吗?
Solidigm会采用SK hynix的NAND技术还是继续开发自己的技术?
PLC闪存是否是死胡同,还是我们会看到产品问世?
Solidigm如何应对其在中国大连的晶圆厂在美国总统特朗普看来处于错误地理位置,并可能对其制造的产品征收关税?
Blocks & Files与Solidigm的AI和领导力营销高级总监Roger Corell进行了交谈,他表示Solidigm在SK hynix内部并未被边缘化。
"我们正在经历一个AI推动的业务动力或业务增长阶段,"他说。"我们认为,由于Solidigm的一些努力,存储越来越成为这一讨论的一部分。"
"我认为如果我们回到大约两年前,甚至更近的时候,存储实际上并不是这一讨论的一部分。现在我们处在这样一个时代,每一瓦特、每一平方英寸都很重要,最大化你在GPU上的关键投资,最大化GPU利用率是至关重要的,存储越来越成为关于高效扩展关键AI基础设施需要什么的对话的一部分。"
"我们处在一个每一瓦特和每一平方英寸都很重要的时代。某人可能会获得500兆瓦数据中心的批准,这听起来很棒,但他们会想要在功率和空间预算内最大化、优化他们的投资。当我们进入这个EB级时代时,存储对这个每一瓦特和每一平方英寸都很重要的时刻的影响在优化关键资源方面变得更加重要。我认为最后一点是,我们谈到了一件事,EB级存储,每一瓦特和平方英寸都很重要。我认为第三个领域是,我们已经暗示过这一点,就是不要让存储成为瓶颈,对吧?你必须最大化你的计算投资优化。所以如果你看看这些因素,为什么我们认为存储正在迎接这个AI时刻,然后我们回顾Solidigm的产品组合,我们认为我们的定位非常好。"
他说Solidigm有"跨多个细分市场的深入行业参与,我们有设计胜利,我们与增长最快的新云、超大规模厂商、领先的存储OEM厂商、领先的存储盒提供商有AI设计胜利。如你所知,我们通过进入Nvidia RVL列表得到验证,其中包括他们用于直连存储的最新E1.S产品。所以我们认为我们的产品组合正在迎接这个AI存储时刻。"
Blocks & Files问:从我的角度来看,我看到Solidigm的SSD层数落后于SK hynix。我的理解是你们目前在192层,而SK hynix在238层,正在开发321层。
Roger Corell:我想从多个角度来看待这个问题。层数很重要,是的,你说得对。我们在192层。我们正在开发下一代,这将推动我们超过200层。
这远不止是层数,好吗?这是层数,每个单元的位数,单元尺寸,以及单元尺寸的结果,你如何密集地封装这些单元。你几乎可以把层数看作垂直扩展。你可以把单元尺寸和封装这些单元的密度看作线性扩展。
我们谈到了每个单元的位数。让我深入一点。好的,QLC并不容易,对吧?我们正在第四代。如你所知,我们从2018年开始出货。我们已经出货了超过120EB。你认为为什么没有其他人大量出货QLC?因为这真的很难。所以我们在这方面有很多经验。
但你也要考虑组件集成、组件优化。我不会在这里详述,但我们已经做了一些事情来显著减少我们的PLI(Power Loss Imminent)的尺寸,显著减少我们控制器的尺寸。这在给定板上为更多NAND芯片放置空间腾出了空间。然后封装也是一个因素。我们拥有业内最小的NAND封装。
当你考虑到所有上述因素时,这就是为什么我们首先达到61.44TB。这就是为什么我们首先达到122.88TB。这就是为什么我们有强烈的信心我们将首先达到245TB。我们预计到2026年底出货245TB。
我们对现在的位置和我们投资向前发展以维持我们的高容量领导地位有信心。
Blocks & Files:245TB驱动器会使用现有的192层吗?
Roger Corell:不会。它将推进到200层。
Blocks & Files:这些芯片会在你们的大连晶圆厂制造吗?
Roger Corell:是的,会的。
Blocks & Files:从你所说的,我理解这将是Solidigm技术。你们不会采用SK hynix技术。
Roger Corell:是的。这将基于浮栅技术,但既然你提到了技术,让我们谈谈这个。如你所知,我们的产品组合中有两种技术。我们有浮栅和电荷陷阱,我们相信这是Solidigm的关键优势,一个独特的技术组合优势。电荷陷阱在某些事情上真的很好,可能最适合某类工作负载。而浮栅在某些事情上真的很好,很好地满足某些其他工作负载的需求。正是这种结合的技术组合访问使我们了解为什么我们的AI产品组合正在迎接这个时刻。
我们有基于电荷陷阱的PS1010用于直连存储,它有惊人的性能,在冷却效率方面也领先。然后我们有浮栅支持的高容量产品组合,再次,61.44TB、122TB出货,245TB到2026年底...好的,在AI方面,你有直连存储(DAS)的存储和网络附加存储(NAS)的存储。我们相信我们在AI的这两个关键存储基础设施领域都有领先产品。
Blocks & Files:你认为你们会坚持QLC,PLC在相当多年内都不会现实吗?
Roger Corell:有趣的问题...我们在2022年8月的FMS上展示了一个工作的PLC SSD,所以我们认为PLC会有未来。什么时候?很难说,但我认为市场正朝着PLC最终在我们的SSD产品组合中占有一席之地的方向发展。我们正在评估它。
Blocks & Files:Solidigm会考虑推出超高速访问SSD,比如Kioxia的近存储级内存FL6吗?
Roger Corell:我们现在市场上确实有一个SLC设备,P5810。我们公司的愿望是我们现在在企业SSD业务中是强劲的第二名。我们有成为第一的愿望。我们倾听客户的声音。如果我们的客户告诉我们他们需要那个产品,那么我们会认真考虑它。是的,这是一个超级有吸引力的产品,如果我们看到对它的需求,我们会研究一个启用它的策略。
评论
Solidigm将从192层3D NAND进入200层以上领域,并使用自己的技术在2026年底前推出245TB级SSD,NAND在大连制造。
注释
具有PLI技术的SSD包含储能电容器,可以在断电时充当备用电源。通过PLI,SSD一旦发生断电就会立即检测到,并将正在传输的数据写入NAND以防止数据丢失。
Q&A
Q1:Solidigm为什么能在高容量SSD领域保持领先地位?
A:Solidigm在QLC技术方面有丰富经验,从2018年开始出货,已经出货超过120EB。该公司不仅关注层数,还在每个单元的位数、单元尺寸、组件集成优化等方面有技术优势,拥有业内最小的NAND封装,这些综合因素使其能率先推出61.44TB和122TB产品。
Q2:Solidigm的245TB SSD什么时候上市?使用什么技术?
A:Solidigm计划在2026年底前出货245TB SSD,该产品将使用超过200层的3D NAND技术,基于浮栅技术,NAND芯片将在大连晶圆厂制造。这将是Solidigm自主开发的技术,而非采用SK hynix的技术。
Q3:Solidigm如何应对AI时代的存储需求?
A:Solidigm认为在AI时代,每一瓦特和每一平方英寸都很重要,存储不应成为瓶颈。公司拥有两种技术组合:电荷陷阱技术的PS1010用于直连存储,浮栅技术的高容量产品用于网络附加存储,能够满足AI基础设施中直连存储和网络附加存储两个关键领域的需求。
好文章,需要你的鼓励
谷歌发布新的AI学术搜索工具Scholar Labs,旨在回答详细研究问题。该工具使用AI识别查询中的主要话题和关系,目前仅对部分登录用户开放。与传统学术搜索不同,Scholar Labs不依赖引用次数或期刊影响因子等传统指标来筛选研究质量,而是通过分析文档全文、发表位置、作者信息及引用频次来排序。科学界对这种忽略传统质量评估方式的新方法持谨慎态度,认为研究者仍需保持对文献质量的最终判断权。
武汉大学研究团队提出DITING网络小说翻译评估框架,首次系统评估大型语言模型在网络小说翻译方面的表现。该研究构建了六维评估体系和AgentEval多智能体评估方法,发现中国训练的模型在文化理解方面具有优势,DeepSeek-V3表现最佳。研究揭示了AI翻译在文化适应和创意表达方面的挑战,为未来发展指明方向。
Meta发布第三代SAM(分割一切模型)系列AI模型,专注于视觉智能而非语言处理。该模型擅长物体检测,能够精确识别图像和视频中的特定对象。SAM 3在海量图像视频数据集上训练,可通过点击或文本描述准确标识目标物体。Meta将其应用于Instagram编辑工具和Facebook市场功能改进。在野生动物保护方面,SAM 3与保护组织合作分析超万台摄像头捕获的动物视频,成功识别百余种物种,为生态研究提供重要技术支持。
参数实验室等机构联合发布的Dr.LLM技术,通过为大型语言模型配备智能路由器,让AI能根据问题复杂度动态选择计算路径。该系统仅用4000个训练样本和极少参数,就实现了准确率提升3.4%同时节省计算资源的突破,在多个任务上表现出色且具有强泛化能力,为AI效率优化开辟新方向。