64层TLC 3D NAND技术值得关注。
东芝公司的三款TLC数据中心SSD产品。
东芝公司正利用三款64层3D NAND产品扩大其数据中心闪存驱动器的销量。
这三款产品分别为CD5、XD5以及HK6-DC(东芝公司在企业级驱动器的命名方面显然比较随意),全部提供PCIe与SATA接口,外加2.5英寸及M.2两种尺寸。
东芝公司的闪存代工合作伙伴西部数据最近也公布了两款NVMe M.2驱动器,分别为SN720(256 GB至2 TB容量)与SN520(128 GB至512 GB容量)。与其它各类口香糖大小的M.2 SSD类似,二者皆定位为移动与边缘设备驱动器。但东芝方面则另辟蹊径,将二者定位为数据中心存储阵列或者服务器内的直连存储用途。
下面来看三款东芝新品的具体参数:
|
接口 |
外观尺寸 |
容量范围 |
前代产品 |
CD5 |
PCIe NVMe 1.3 |
2.5英寸 |
960 GB - 7.7 TB |
CM5 |
XD5 |
PCIe NVMe 1.2.1 |
M.2 |
1.9 TB - 3.8 TB |
XG5 |
HK6 |
SATA每秒6Gb |
2.5英寸 |
960 GB - 3.8 TB |
HK4 |
各产品的最高性能取决于实际存储容量,容量越大性能越强,下表所示为最高性能参数:
|
随机读取 IOPS |
随机写入IOPS |
连续读取MB每秒 |
连续写入MB每秒 |
CD5 |
50万 |
3万5千 |
3393 |
2076 |
XD5 |
24万 |
2万1千 |
2600 |
890 |
HK6 |
8万5千 |
未提供 |
550 |
未提供 |
下图所示为性能比较以及各产品针对读取密集型任务的优化效果:
最高性能数字
总而言之,三款产品在性能方面表现良好。以下为东芝公司为各产品作出的价格/性能定位:
东芝为三款数据中心SSD产品作出的市场定位。
东芝公司高管指出,他们希望彻底取代数据中心内的传统磁盘驱动器。那么是否包括东芝自家的磁盘驱动器呢?“不”,他们回答称; 这是另一回事。我们是东芝存储器集团,目前正接受贝恩资本牵头的联盟收购。
东芝方面认为这三款采用64层BiCS-3技术的产品在应用领域方面存在一定交集。
其中HK6的性能表现最差,因此其并不适用于大数据分析,但比较擅长作为归档用途。
根据我们得到的消息,东芝公司高管表示XD5主要面向需要Facebook级高速性能表现的数据中心系统,而且Facebook公司目前已经开始推广M.2类驱动器产品。此类客户要求我们为其构建一款塞满M.2驱动器的机架式机箱,将其作为一块巨大的整体式闪存驱动器,并提供强大的软件对容量及驱动器访问操作进行管理。
约264块驱动器即可提供1 PB闪存存储容量,但其功耗与散热可能会带来问题。那么,水冷SSD是否会因此而出现?
东芝公司并没有评论尺状SSD这一设计方案,意味着除了三星与英特尔之外,行业中的其它厂商还是更青睐2.5英寸与M.2两种外观尺寸。
HK6及其SATA接口明显回归了磁盘驱动器的接口设置,这将使其与各OEM与系统构建商的风格保持一致。不过从性能的角度来看,NVMe无疑代表着未来,而我们也期待着未来能够在CD5驱动器以及XD5当中见到NVMe over Fabrics接口的身影。
东芝公司正着手将其全部闪存产品升级至64层TLC(三级单元)NAND。接下来,他们将致力于开发96层闪存,其闪存芯片将能够带来额外32层实现的更多容量。此外,我们对于QLC(即四级单元)也抱有美好的期待。使用96层QLC闪存芯片的下一代HK6可能将带来6.3 TB的最大容量……确实非常可观。高速归档方案,我们来了!
好文章,需要你的鼓励
这篇研究重新审视了循环神经网络中的双线性状态转换机制,挑战了传统观点。高通AI研究团队证明,隐藏单元不仅是被动记忆存储,更是网络计算的积极参与者。研究建立了一个从实数对角线到完全双线性的模型层级,对应不同复杂度的状态跟踪任务。实验表明,双线性RNN能有效学习各种状态跟踪任务,甚至只需极少量训练数据。研究还发现,纯乘法交互比加法交互更有利于状态跟踪,为循环网络设计提供了新视角。
这项研究探讨了多模态大语言模型在增强推理能力时出现的视觉幻觉问题。研究发现,模型生成更长推理链时,对视觉信息的关注减少,导致幻觉增加。研究者提出RH-AUC指标和RH-Bench基准来评估模型在推理与幻觉间的平衡,发现较大模型表现更好,纯强化学习训练优于监督微调加强化学习,且训练数据的类型比数量更重要。这些发现对开发既具推理能力又保持视觉准确性的AI系统具有重要意义。
这篇研究探讨了大语言模型在自动推理任务中的不确定性问题。研究者提出,模型生成形式规范时的概率不确定性不是缺陷,而是宝贵的信号源。通过引入概率上下文无关文法框架分析SMT-LIB程序分布,他们发现不确定性信号具有任务相关性(如逻辑任务中的语法熵AUROC>0.93)。他们的轻量级信号融合方法能减少14-100%的错误,仅需最小弃权,将大语言模型驱动的形式化转变为可靠工程学科。研究揭示当模型正确理解逻辑关系时会产生稳定的语法模式,为判断何时信任模型提供了可靠指标。
来自沙特阿拉伯王子苏丹大学和阿尔法萨尔大学的研究团队开发了GATE(General Arabic Text Embedding)模型,这是一套专为阿拉伯语设计的文本嵌入系统。该研究结合了套娃表示学习和混合损失训练方法,解决了阿拉伯语特有的语义处理挑战。GATE模型在MTEB基准测试的语义文本相似度任务中表现卓越,比包括OpenAI在内的更大模型高出20-25%,同时保持了多维度(768至64)的高效表现。研究通过详细的错误分析揭示了模型在不同相似度水平上的表现特点,为阿拉伯语NLP领域提供了新的研究方向。