64层TLC 3D NAND技术值得关注。
东芝公司的三款TLC数据中心SSD产品。
东芝公司正利用三款64层3D NAND产品扩大其数据中心闪存驱动器的销量。
这三款产品分别为CD5、XD5以及HK6-DC(东芝公司在企业级驱动器的命名方面显然比较随意),全部提供PCIe与SATA接口,外加2.5英寸及M.2两种尺寸。
东芝公司的闪存代工合作伙伴西部数据最近也公布了两款NVMe M.2驱动器,分别为SN720(256 GB至2 TB容量)与SN520(128 GB至512 GB容量)。与其它各类口香糖大小的M.2 SSD类似,二者皆定位为移动与边缘设备驱动器。但东芝方面则另辟蹊径,将二者定位为数据中心存储阵列或者服务器内的直连存储用途。
下面来看三款东芝新品的具体参数:
|
|
接口 |
外观尺寸 |
容量范围 |
前代产品 |
|
CD5 |
PCIe NVMe 1.3 |
2.5英寸 |
960 GB - 7.7 TB |
CM5 |
|
XD5 |
PCIe NVMe 1.2.1 |
M.2 |
1.9 TB - 3.8 TB |
XG5 |
|
HK6 |
SATA每秒6Gb |
2.5英寸 |
960 GB - 3.8 TB |
HK4 |
各产品的最高性能取决于实际存储容量,容量越大性能越强,下表所示为最高性能参数:
|
|
随机读取 IOPS |
随机写入IOPS |
连续读取MB每秒 |
连续写入MB每秒 |
|
CD5 |
50万 |
3万5千 |
3393 |
2076 |
|
XD5 |
24万 |
2万1千 |
2600 |
890 |
|
HK6 |
8万5千 |
未提供 |
550 |
未提供 |
下图所示为性能比较以及各产品针对读取密集型任务的优化效果:
最高性能数字
总而言之,三款产品在性能方面表现良好。以下为东芝公司为各产品作出的价格/性能定位:
东芝为三款数据中心SSD产品作出的市场定位。
东芝公司高管指出,他们希望彻底取代数据中心内的传统磁盘驱动器。那么是否包括东芝自家的磁盘驱动器呢?“不”,他们回答称; 这是另一回事。我们是东芝存储器集团,目前正接受贝恩资本牵头的联盟收购。
东芝方面认为这三款采用64层BiCS-3技术的产品在应用领域方面存在一定交集。
其中HK6的性能表现最差,因此其并不适用于大数据分析,但比较擅长作为归档用途。
根据我们得到的消息,东芝公司高管表示XD5主要面向需要Facebook级高速性能表现的数据中心系统,而且Facebook公司目前已经开始推广M.2类驱动器产品。此类客户要求我们为其构建一款塞满M.2驱动器的机架式机箱,将其作为一块巨大的整体式闪存驱动器,并提供强大的软件对容量及驱动器访问操作进行管理。
约264块驱动器即可提供1 PB闪存存储容量,但其功耗与散热可能会带来问题。那么,水冷SSD是否会因此而出现?
东芝公司并没有评论尺状SSD这一设计方案,意味着除了三星与英特尔之外,行业中的其它厂商还是更青睐2.5英寸与M.2两种外观尺寸。
HK6及其SATA接口明显回归了磁盘驱动器的接口设置,这将使其与各OEM与系统构建商的风格保持一致。不过从性能的角度来看,NVMe无疑代表着未来,而我们也期待着未来能够在CD5驱动器以及XD5当中见到NVMe over Fabrics接口的身影。
东芝公司正着手将其全部闪存产品升级至64层TLC(三级单元)NAND。接下来,他们将致力于开发96层闪存,其闪存芯片将能够带来额外32层实现的更多容量。此外,我们对于QLC(即四级单元)也抱有美好的期待。使用96层QLC闪存芯片的下一代HK6可能将带来6.3 TB的最大容量……确实非常可观。高速归档方案,我们来了!
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。