富士通公司的模块化阵列产品线开始对高端方案进行更新,其第三代ETERNUS DX8700 S3产品与新的DX8900 S3阵列令人眼前一亮。在新的高端性能巨兽面前,上代方案显得孱弱不堪。
富士通公司英国及爱尔兰分部存储业务负责人David Histon在采访中指出:“ETERNUS DX8700 S3系列产品立足于新型架构,我们将其称为四星架构。以这一概念为基础,我们打造出了DX8700 S3与DX8900 S3机型。其中DX8900 S3属于DX8700 S2的后续产品,其拥有最多24个控制器模块与400万IOPS的扩展能力上限。”
他同时表示,富士通公司“将根据实际负载场景为该系统带来更为出色的IPOS表现。”
而在背景信息方面,他解释称:“其完全基于S3家族的设计概念与平台,因此意味着其拥有S3架构、第三代PCIe接口以及四星架构。具体而言,其具备S3家族的软件功能,例如透明化故障转移、服务质量管理器、AST、重复数据删除以及压缩等等,而且这些特性在DX8000系列下的全部机型上皆有提供。”
DX8700 S2是一款诞生于2011年11月的产品。我们猜测富士通方面可能有意调低了DX8700 S3的容量水平,从而为DX8900 S3保留更多扩展空间。
Histon同时指出:“DX8700 S3属于DX8900 S3的小兄弟。DX8700 S3的缓存容量更小而且控制器模块数量更少,但其仍然使用新型架构并提供超高缓存容量作为备选项目,我们能够最多为DX8700 S3添加24 TB的额外缓存空间。”
DX8900 S3的最大存储容量扩展上限为13.8 PB,且号称能够提供400万IOPS。NetApp公司的FAS8080属于其FAS产品线中的枯朽,同样拥有400万IOPS,但最高存储容量仅为5.8 PB——在这场比拼中,富士通方面得一分。
DX8900的控制数量为2到24个(NetApp公司的Clustered Data ONTAP也提供同样的数量支持),在概念上各控制器构成环状结构并接入四台前端路由器,且每台路由器与控制器各自相连。互连机制采用第三代PCIe,富士通公司表示其中包含用于实现负载均衡优化的主动-主动跨通道连接机制。
富士通公司向我们保证即使前端路由器或者控制器发生故障亦不会造成任何停机事故,而这要归功于其透明化故障转移与端到端冗余保护机制对于组件故障的应对能力。RAID保护机制能够解决驱动器故障问题。而两台DX8900之间的镜像同步则能够将阵列整体故障变得不再是问题。
每一套存储控制器对都可最多接入384块磁盘驱动器或者SSD。十二套控制器对乘以384块驱动器意味着我们最多可以向其中接入4608块驱动器。
相较于DX8700 S2,DX8900 S3拥有高达八倍的IO性能、八部传输带宽以及十二倍总线性能。
自动化服务质量机制则是ETERNUS的一大特色。存储管理员能够为一套存储分卷定义预期响应时间(或者优先级)。该阵列系统能够追踪实际响应时间,同时调整指向该LUN的传输带宽并在必要时重新设置存储层,从而实现理想的响应时间水平。富士通公司指出,这项技术可被用于支持虚拟服务器的服务水平管理。
DX8900是一款真正意义上的大型存储阵列,且拥有企业级可靠性水平。富士通方面将其作为巩固在线事务处理(简称OLTP)、大规模数据库、文件服务、关键性业务应用程序以及商业分析与/或大数据的重要依托,而且企业及云服务供应商能够将此类负载通过这套单一多因素体系加以实现。
根据我们的汇总结果,富士通的ETERNUS系列已经正式步入向外扩展、双控制器阵列时代,其集群节点数量与NetApp麾下的旗舰级ONTAP产品相当,拥有超越FAS8080的存储容量且具备出色的可靠性水平。
DX8700 S3与DX8900 S3都将于今年8月1日正式投放市场。我们得到的消息是其“不同配置及不同地区市场上的价格有所差异”,但富士通公司尚未披露任何具体数字。
好文章,需要你的鼓励
从浙江安吉的桌椅,到广东佛山的沙发床垫、河南洛阳的钢制家具,再到福建福州的竹藤制品,中国各大高度专业化的家具产业带,都在不约而同地探索各自的数字化出海路径。
哥伦比亚大学研究团队开发了MathBode动态诊断工具,通过让数学题参数按正弦波变化来测试AI的动态推理能力。研究发现传统静态测试掩盖了AI的重要缺陷:几乎所有模型都表现出低通滤波特征和相位滞后现象,即在处理快速变化时会出现失真和延迟。该方法覆盖五个数学家族的测试,为AI模型选择和部署提供了新的评估维度。
研究人员正探索AI能否预测昏迷患者的医疗意愿,帮助医生做出生死决策。华盛顿大学研究员Ahmad正推进首个AI代理人试点项目,通过分析患者医疗数据预测其偏好。虽然准确率可达三分之二,但专家担心AI无法捕捉患者价值观的复杂性和动态变化。医生强调AI只能作为辅助工具,不应替代人类代理人,因为生死决策依赖具体情境且充满伦理挑战。
这项研究首次发现AI推理模型存在"雪球效应"问题——推理过程中的小错误会逐步放大,导致AI要么给出危险回答,要么过度拒绝正常请求。研究团队提出AdvChain方法,通过训练AI学习"错误-纠正"过程来获得自我纠错能力。实验显示该方法显著提升了AI的安全性和实用性,用1000个样本达到了传统方法15000个样本的效果,为AI安全训练开辟了新方向。