近日,东芝在北京正式发布了型号为MG08的16TB硬盘产品,这也是继去年14TB推出之后的又一次革新。MG08 16TB硬盘可以兼容各种常见应用和操作系统,适用于云和传统数据中心环境中的混合随机读取和写入及顺序读取和写入工作负载。
硬件方面,MG08转速为7,200rpm,额定年度负载量高达550TB,平均无故障时间(MTTF)达250万小时,配备512Mib高速缓存和SATA及SAS接口,采用标准的3.5英寸外形。
企业级机械硬盘活力依旧
从当前主流应用来看,固态硬盘已经占据显著地位,那么传统机械硬盘未来会走向何方呢?

东芝电子(中国)有限公司存储技术部总经理户谷得之认为,移动与桌面市场机械硬盘所占份额在逐渐减少,相比之下商用及企业级市场机械硬盘则依然动力十足。因为无论是分层存储、混合存储还是灾备,都离不开机械硬盘。
对于东芝来讲,增涨速度最快是近线硬盘,因此未来也会把进线硬盘作为重点来推广,此外在监控硬盘方面也会持续发力。
通过新技术提升产品竞争力
目前,我们看到固态硬盘和机机械硬盘的价差在2~3倍左右的话,会有一部分用户转到固态硬盘上去。但如果看大容量存储市场,目前二者价差还在10倍以上,因此在接下来几年之内,替代的效果还不会很明显。
所以,东芝的观点是尽量把硬盘的容量做大,这样才能保持机械硬盘在价格上的竞争力。
2018年东芝推出了14TB硬盘产品,那么它的市场表现如何呢?东芝电子(中国)有限公司存储产品市场部经理王泽铠表示,计划中东芝14TB产品会有较大的市场份额,但实际情况来看出货量并不是特别高。这主要在于数据中心客户需要一定周期来认证产品,认证之后才会大量采购。我们也看到了东芝14TB产品已经在2018年完成认证,相信在2019年将会有更大的出货量。而刚刚推出的16TB产品也同样会经历这样一个过程。
各个市场对大容量硬盘需求不同
谈到对于大容量硬盘的接受度,王泽铠认为中国市场和美国市场有着很大的不同。在美国市场,企业更加青睐于大容量新品,这样有助于缩减整个运营成本。
但在中国市场,企业更加关注前期投入成本,因此可以看到中国用户的主要硬盘容量还保持在4TB、6TB和8TB阶段。随着时间的推移,在这个价格下降之后,中国市场也会逐渐转到大容量产品上去。
其实发展至此,机械硬盘的容量提升也远没有遇到瓶颈,东芝下一步开始做18TB产品,会始终保持一个循序渐进的产品发展方向。并且每年都要加入一些新的元素做技术累积,比如TDMR、MAMR等等。从客户反馈来讲,16TB产品受关注度也是最高。
东芝在保证稳定性同时推动技术变革
在新技术探索方面,东芝也是充满了信心。对于存储设备来讲,最重要的就是稳定性与安全性,一直以来东芝都是用比较保守的方案来推进产品更新。
户谷得之在接受采访的时候也表示:我们在R&D策略上针对每一代产品加一项新技术,所以用户才会看到14TB首先做到9碟的设计;然后16TB加入了TDMR技术;接下来还会引进MAMR等技术。
硬盘容量提升是一个累积的过程,东芝会把一项新技术放上去,把它改良到极限之后,再投入另一个新技术,基本会维持这样的过程。
在这背后,东芝为了验证新技术,通常会做一些比较长时间的准备,此外还会做很多不同的技术研究,及时把新技术放到下一代产品中。

在发布会上我们看到了东芝与深圳安防协会有合作,据王泽铠介绍,东芝也希望通过深安协的影响力来推动产品在中国监控市场的发展。
与深圳安防协会合作以后,东芝会把LOGO放到硬盘上,并且做线下线上的推广,对品牌来讲是一个认证与提升。东芝也非常欢迎这样的合作伙伴,也会在后续进行更深度的合作。
总的来看,东芝硬盘采取了稳扎稳打策略,通过新技术的不断改进提升产品竞争力,并且将重点放在了企业级应用领域,16TB产品的问世也是一个重要里程碑,海量数据时代已经向我们走来。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。