X-IO公司旗下配备五年质保服务且免维护之封闭型磁盘及磁盘加闪存阵列家族又迎来一位新成员:全闪存版本ISE。目前其已经凭借自身强大实力冲到SPC-1性价比基准测试图表的右上角位置。
这款ISE 800设备采用标准的3U X-IO机柜并采用X-IO的第三代架构,其最初出现在今年一月发布的ISE 780当中。目前新系列拥有三款机型:
• 820 – 6.4TB预RAID存储容量(RAID 10下为2.7TB,RAID 5下为4.3TB)
• 850 – 25.6TB预RAID存储容量(RAID 10下为11.4TB,RAID 5下为18.3TB)
• 860 – 51.2TB预RAID存储容量(RAID 10下为22.9TB,RAID 5下为36.6TB)
全部机型皆提供最高40万IOPS,或者在由OLTP工作负载进行调用时提供26万IOPS。其可用传输带宽为每秒5GB。
ISE 800
其操作系统已经受到VMware VASA、vSphere Web Client、vRealize Operations以及OpenStack Cinder驱动程序的支持。该产品同时提供主动到主动同步镜像、精简配置、服务质量以及REST Web Services API。
X-IO方面还特别指出,该产品的性能表现不会随着阵列中数据存储量的提升而下降——根据其说法,100%容量占用的情况下其性能表现仍能达到100%——而且在设备的五年质保周期内性能不会出现衰减。
其升级机制不会对业务造成破坏性,而且提供冗余组件以实现可靠性。主机连接通过8个8Gb每秒光纤通道(SAN与DAS)配合1GbitE管理端口实现。
SPC-1基准测试当中IOPS在20万到30万之间各系统一览
其中820机型已经提交了一份SPC-1基准测试结果——测试随机存储阵列的IO性能表现——其中记得25万2981.83 SPC-1 IOPS成绩、2.06毫秒平均响应时间以及史上最低的每SPC-1 IOPS成本——0.32美元,打破了之前由全DRAM Kaminario K2阵列创下的0.40美元纪录。在此之前的全闪存阵列纪录则是由NetApp EF560创造的0.54美元每SPC-1 IOPS。
每SPC-1 IOPS成本排名
单纯从SPC-1 IOPS角度来看,ISE 800的速度高于NetApp的EF560(后者为24万5011.76 IOPS)以及六节点版本NetApp FAS6240集群(为25万39.67 IPOS)。惠普公司的StoreServe 7450凭借着25万8078.23 IOPS夺得最高速度桂冠,但其每IOPS成本为0.58美元,远高于X-IO的0.32美元。
从每SPC-1 IOPS成本角度看,X-IO的ISE 800设备列在排行榜榜首,不过具体计算结果可能由于清单计价与实际购买价格之间的差别而受到影响。X-IO公司希望将该产品投放OLTP市场,特别是针对微软SQL用例。其它适合用例还包括商务智能以及交易平台。VDI也属于其潜在适用场景。
如今全闪存阵列市场又迎来了另一位竞争者,成千上万客户能够借其产品完成阵列升级,而且SPC-1基准测试结果以及等同于惠普7450以及NetApp EF560的性能水平也足以证明其自身实力。X-IO的销售渠道应该会对其大加赞赏。
在我们的印象中,X-IO已经与某些特性牢牢结合在了一起——包括长期沿用磁盘驱动器——但该公司如今以更为开放的姿态迎接新型技术方案。我们应该可以期待其很快推出更多其它开发成果。
目前820机型的售价为12万4900美元,850机型为32万美元,而860机型则为57万5000美元。ISE 800现在已经由X-IO及其经销商正式投放市场。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。