近日,东芝在北京正式发布了型号为MG08的16TB硬盘产品,这也是继去年14TB推出之后的又一次革新。MG08 16TB硬盘可以兼容各种常见应用和操作系统,适用于云和传统数据中心环境中的混合随机读取和写入及顺序读取和写入工作负载。
硬件方面,MG08转速为7,200rpm,额定年度负载量高达550TB,平均无故障时间(MTTF)达250万小时,配备512Mib高速缓存和SATA及SAS接口,采用标准的3.5英寸外形。
企业级机械硬盘活力依旧
从当前主流应用来看,固态硬盘已经占据显著地位,那么传统机械硬盘未来会走向何方呢?
东芝电子(中国)有限公司存储技术部总经理户谷得之认为,移动与桌面市场机械硬盘所占份额在逐渐减少,相比之下商用及企业级市场机械硬盘则依然动力十足。因为无论是分层存储、混合存储还是灾备,都离不开机械硬盘。
对于东芝来讲,增涨速度最快是近线硬盘,因此未来也会把进线硬盘作为重点来推广,此外在监控硬盘方面也会持续发力。
通过新技术提升产品竞争力
目前,我们看到固态硬盘和机机械硬盘的价差在2~3倍左右的话,会有一部分用户转到固态硬盘上去。但如果看大容量存储市场,目前二者价差还在10倍以上,因此在接下来几年之内,替代的效果还不会很明显。
所以,东芝的观点是尽量把硬盘的容量做大,这样才能保持机械硬盘在价格上的竞争力。
2018年东芝推出了14TB硬盘产品,那么它的市场表现如何呢?东芝电子(中国)有限公司存储产品市场部经理王泽铠表示,计划中东芝14TB产品会有较大的市场份额,但实际情况来看出货量并不是特别高。这主要在于数据中心客户需要一定周期来认证产品,认证之后才会大量采购。我们也看到了东芝14TB产品已经在2018年完成认证,相信在2019年将会有更大的出货量。而刚刚推出的16TB产品也同样会经历这样一个过程。
各个市场对大容量硬盘需求不同
谈到对于大容量硬盘的接受度,王泽铠认为中国市场和美国市场有着很大的不同。在美国市场,企业更加青睐于大容量新品,这样有助于缩减整个运营成本。
但在中国市场,企业更加关注前期投入成本,因此可以看到中国用户的主要硬盘容量还保持在4TB、6TB和8TB阶段。随着时间的推移,在这个价格下降之后,中国市场也会逐渐转到大容量产品上去。
其实发展至此,机械硬盘的容量提升也远没有遇到瓶颈,东芝下一步开始做18TB产品,会始终保持一个循序渐进的产品发展方向。并且每年都要加入一些新的元素做技术累积,比如TDMR、MAMR等等。从客户反馈来讲,16TB产品受关注度也是最高。
东芝在保证稳定性同时推动技术变革
在新技术探索方面,东芝也是充满了信心。对于存储设备来讲,最重要的就是稳定性与安全性,一直以来东芝都是用比较保守的方案来推进产品更新。
户谷得之在接受采访的时候也表示:我们在R&D策略上针对每一代产品加一项新技术,所以用户才会看到14TB首先做到9碟的设计;然后16TB加入了TDMR技术;接下来还会引进MAMR等技术。
硬盘容量提升是一个累积的过程,东芝会把一项新技术放上去,把它改良到极限之后,再投入另一个新技术,基本会维持这样的过程。
在这背后,东芝为了验证新技术,通常会做一些比较长时间的准备,此外还会做很多不同的技术研究,及时把新技术放到下一代产品中。
在发布会上我们看到了东芝与深圳安防协会有合作,据王泽铠介绍,东芝也希望通过深安协的影响力来推动产品在中国监控市场的发展。
与深圳安防协会合作以后,东芝会把LOGO放到硬盘上,并且做线下线上的推广,对品牌来讲是一个认证与提升。东芝也非常欢迎这样的合作伙伴,也会在后续进行更深度的合作。
总的来看,东芝硬盘采取了稳扎稳打策略,通过新技术的不断改进提升产品竞争力,并且将重点放在了企业级应用领域,16TB产品的问世也是一个重要里程碑,海量数据时代已经向我们走来。
好文章,需要你的鼓励
这项研究提出了HoPE(混合位置编码),一种针对视觉语言模型的新型位置编码技术,专门解决长视频理解的挑战。传统位置编码技术在处理长视频时表现不佳,HoPE通过两个创新解决了这一问题:混合频率分配策略(为空间信息分配高频,时间维度使用零频率)和动态时间缩放机制(根据视频速度灵活调整时间编码)。实验证明,HoPE在长视频理解和检索任务上分别提升了8.35%和22.23%,为AI更准确理解长视频内容开辟了新途径。
东京大学研究团队推出MangaVQA基准和MangaLMM模型,专门用于评估和提升AI对日本漫画的理解能力。MangaVQA由526个高质量手动创建的问答对组成,用于评估AI系统对漫画内容的深入理解;MangaOCR则专注于漫画页内文本识别。基于这两个基准,研究团队从开源多模态模型Qwen2.5-VL微调出MangaLMM,能同时处理文本识别和内容理解任务。实验显示,即使是GPT-4o等顶尖商业模型在处理漫画的独特复杂性时也面临挑战,而专门训练的MangaLMM表现出色。
这项研究由ISTA和谷歌研究院联合开发的"影响力蒸馏"方法,通过利用二阶信息为训练样本分配最优权重,实现了大语言模型训练数据的高效选择。该方法在数学上有坚实理论支持,并创新性地引入"地标"近似技术,仅需计算少量样本的精确影响力,再高效传播到其他样本,大幅降低计算成本。实验证明,该方法在多种模型和任务上均优于或匹配现有技术,同时实现了高达3.5倍的速度提升,为大模型训练开辟了更高效的路径。
来自哈佛大学等顶尖学府的研究团队在这篇论文中挑战了传统观念,认为Token压缩不仅仅是提高AI模型运行效率的工具,更应成为生成式AI模型设计的核心原则。研究表明,精心设计的Token压缩策略可以促进多模态深度整合、减轻AI"幻觉"问题、增强处理长序列输入的能力,并提高训练稳定性。论文详细分析了现有方法的局限性,并提出了算法创新、强化学习指导和硬件协同设计等未来研究方向。