富士通放出消息,宣称大家不必再出于性能考量而购买特殊的全闪存系统——该公司的全闪存中端DX200阵列既价廉又物美,足以满足需求。
富士通表示“与基于特殊架构的昂贵全闪存阵列不同,这款富士通Eternus DX200 S3采用的是高性能标准系统架构,能够将系统购置成本削减高达八成。”
DX200 S3的全闪存版本配备3.6TB NAND,能够实现200500.95 SPC-1 IOPS,其满负载工作状态下的响应时间约为0.63毫秒——根据富士通的说法,这是SPC-1基准测试历史上最出色的满负载响应时间数字。
SPC-1基准测试的目的在于“模拟关键性业务应用程序所涉及的大量复杂事务处理流程。联机事务处理(简称OLTP)、数据库操作以及邮件系统等伪操作型工作负载会被重新创建以确保随机访问读取/写入性能。”
下面这份图表显示的是全闪存DX200 S3在SPC-1基准测试系统中的IOPS排名情况:
富士通Eternus DX200 S3全闪存版本在SPC-1基准测试中的IOPS成绩
我们从中能够得出怎样的结论?DX200 S3的速度比Eternus DX400系统更快,虽然后者曾经被定位成更高级别的Eternus阵列产品。DX400后来被于去年十一月份推出的DX500系统所取代,与之同期发布的还有DX200以及其它S3版本产品。通过以下图表,我们能够了解此后富士通Eternus产品家族的定位情况:
其次,中端DX200在基准测试中的成绩超过了IBM V7000以及NetApp FAS8040双节点集群,并与惠普3PAR T800以及六节点NetApp FAS6240集群保持在同一级别当中。不过惠普与NetApp的这两款方案都属于上代产品。看了这份成绩单,我们不禁对富士通接下来将要推出的大型DX500以及DX600的全闪存版本充满期待。
在这份SPC-1测试成绩单中,没有出现富士通所说的价格极为高昂的特殊架构全闪存阵列——我们认为这里指的是由Pure Storage、SolidFire、Nimbus Data或者Violin打造的对应阵列产品。我们暂时无法从SPC-1测试的角度将它们与DX200 S3进行比较,因为它们都没有公开其SPC-1成绩——这实在有些遗憾。另外,我们也无法将DX200与EMC的XtremIO或者思科的Invicta作出比对,理由也是一样。
再有,我们也不知道DX200的全磁盘版本到底性能如何,这不得不说是另一大遗憾。就目前来看,全闪存DX200表现突出、状态良好,如果大家希望购买一套速度拔群而且易于安装的全闪存系统,这就是富士通给出的答案。
顺带一提,我们了解到NetApp也计划推出一款全闪存FAS阵列,相信到实际发布时双方一定又会引发激烈的对抗。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。