希捷(Seagate)最近推出了创纪录的22TB(TB)容量的IronWolf Pro硬盘,采用3.5英寸外形尺寸。希捷的产品组合中已经有一个双抽屉式的5U JBOD机架在等着,5U JBOD可容纳84个IronWolf 22TB硬盘,总容量达1.8PB(PB),可用于服务器和存储阵列。
在希捷宣布推出22TB IronWolf Pro后不久,主打中小企业的NAS供应商QNAP即表示会将硬盘制造商希捷的JBOD与旗下的QuTS NAS模型绑在一起销售。
硬盘驱动器(HDD)的价格较低,但速度不如SSD,但在某些情况下硬盘驱动器还是很有吸引力的,包括为大型企业的冷数据提供存储容量以及为中小企业提供非常高的存储容量。
除了希捷和西部数据(Western Digital)以外,另一个制造磁盘的大厂商是东芝(Toshiba)。东芝尚未推出22TB硬盘,最大的是20TB,去年年底开始发货,比竞争对手晚了一年左右。
IronWolf Pro 22TB配备10个磁性盘片,转速为7200rpm(转/每分钟),每个盘片支持2.2TB的容量。IronWolf Pro的连接为6Gbps SATA,前身是18个月前推出的9盘片的IronWolf Pro 20TB。
希捷仍未在IronWolf Pro 硬盘中使用旗下的SMR和HAMR技术。SMR和HAMR技术指片状磁记录和热辅助磁记录。就容量而言,SMR和HAMR技术技术被认为是迈向下一代旋转磁盘驱动器的必要条件。据该供应商称,这些技术将突破30TB的容量上限,希捷承诺将在年内推出这种硬盘。
IronWolf Pro在电子方面没有创新,但比其前身的功耗稍微多一点点,工作时功耗为7.9瓦而不是7.7瓦,空闲时功耗6瓦而不是5瓦。
硬盘访问时间仍然相同,吞吐量为285MBps,与旧型号的吞吐量相同。访问时间在很大程度上是SATA连接和板载缓存的功能,该型号的512MB缓存与2021年底型号的缓存相同。
希捷尚未提12Gbps SAS的最终采用。希捷的IronWolf Pro 20TB与Exos 20TB硬盘同时推出,IronWolf Pro 20TB主打外部磁盘部署,Exos 20TB则主打服务器的内部。希捷的目标有可能不是HDD和固态之间的那个中间点,原因是现在许多以容量为目标的企业存储产品都在寻找四级单元(QLC)闪存盘。
希捷还宣布,希捷Lyve的网关将使用QNAP QuTS NAS。希捷Lyve是希捷Lyve旗下的S3云存储产品。这对于这两家供应商来说事关提供备份以及向云扩展。
事实上,QNAP QuTS起了两个网关的作用,两个网关名为混合备份同步及混合挂载,可以配置成自动连接到Lyve云。
QuTS使用ZFS文件系统,能够管理多达156个硬盘驱动器,其中24个集成在2U板形尺寸中,84个集成在希捷Exos E 5u84 JBOD中,其余的硬盘驱动器连在三个TL-R1620 QNAP JBOD架上,每个架可以容纳16个硬盘。
NAS和JBOD架之间的连接使用SAS 12Gbps或SATA 6Gbps。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。