
SF1920细节图。
NetApp公司旗下的SolidFire事业部已经公布了一款新型设备、一项操作系统更新外加软件许可变更(将软件许可与特定硬件产品拆分开来)。
NetApp与思科FlexPod将立足于现有系统提供SolidFire阵列选项,且未来几个月中还将有一套基于SolidFire的FlexPod配置方案推出。
Element OS版本9被称为Fluorine,即元素周期表上的第九种元素,其中添加了与SolidFire服务质量相结合的VVOL支持机制,意味着VVOL层级(即每虚拟机)间的租户影响将受到控制,可通过设置指定最小、最大与突发IOPS水平。
另外,这套系统还提供新的GUI,能够将存储系统数据合并至单一仪表板当中。
SolidFire方面表示,版本9将集群内FC节点数量提升至4倍,允许用户向外扩展至40个存储节点。Fluorine还提升了每FC节点的IOPS水平,从原本的30万提升至50万IOPS,意味着一套四FC节点集群可实现高达200万IOPS。
多租户机制也得到改善,客户能够通过独立路由表在VLAN上使用叠加IP地址并保留IP地址资源。
FlashForward许可机制
SolidFire方面还将软件许可从特定硬件产品中抽离出来,并将其作为SolidFire存储阵列企业资源池内的一部分加以应用。这套机制被称为FlashForward Capacity Licensing,主要面向那些倾向于使用纯软件许可的客户。
CEO Dave Wright指出,纯软件许可机制的市场反响相当不错,而客户仍然可以在硬件选择外加存储机架及附加卡的量化工作方面自行决断。
Element OS许可为永久性且基于最大配置容量,例如可在任意企业位置采用100 TB池化原始存储容量。另外,其提供批量采购优惠政策。软件与硬件可共同或分别订购。客户在购买新硬件时无需额外添置新的许可,除非其资源容量已经超出许可范围。
尽管SolidFire公司并不提供云系统,但Element OS能够运行在基于公有云的硬件之上,这也是为了配合SolidFire所采取的云硬件发展策略。举例来说,大家可以获取100 TB Element OS容量许可并立足于AWS加以运行。
NetApp公司也有可能会在ONTAP与SANtricity上的E系列OS中采用同样的方案。根据我们的猜测,SolidFire的FlashForward机制只是NetApp将其全面推向各产品线的测试或者试用版本。如果其获得成功,那么接下来NetApp将进行大规模采用。

四节点SolidFire SF19210
SF19210
作为此次公布的新设备,全闪存SF19210集群节点拥有十块1.92 TB SSD,意味着原始存储容量为19.2 TB,数据压缩后的实际可用容量则高达80 TB。这一水平高于现有高端SF9010的960 GB SSD与9.6 TB原始容量参数组合。顺带一提,SolidFire公司已经开始在部分产品中尝试使用3D NAND(三星)SSD。
系统内存则由SF9010的256 GB提升至384 GB。SF9010的IOPS为7万5千,而SF19210则为10万。后者的容量与性能分别相当于前者的两倍与三倍。
这台新设备可被直接接入现有SolidFire集群,而且SolidFire方面表示其每GB使用成本较现有设备低30%。
SolidFire的产品定位根据时间/容量可汇总为以下图表:

SolidFire设备定位图,截至2016年6月
而即将推出的SF19210则标志着SF9010即将走向生命周期的终点。

SF19210目前已经开放订购,起步价格为84588.82美元,企业客户可通过SolidFire及其全球渠道合作伙伴网络进行购买。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。