目前,对于Pure即将推出的高端阵列,我们得到了一些相关信息,猜测SolidFire将会进行产品容量的更新。
据悉,这个新的高端阵列可用容量最高可以达到1.5PB,采用4TB和8TB 3D NAND模块(SSD)。有持续不断的QoS,支持数千个虚拟机,定价不高于每1GB可用容量1美元。
我们得到了这款新阵列的图片,推测有48个驱动器插槽,使用8TB驱动器达到384TB。但或许猜测是错的。有Pure公司的知情人士说,实际上是在3U设备或者头设备内有20多个插槽,2个控制器,总共有68个插槽--在4*2U的扩展机架上有48个插槽--也就是68*8TB=544TB容量。
这是正常的,因为最近Pure Accelerate大会上三星展示了7.68TB 3D V-NAND T容量LC SSD,也就是522.24TB原始容量。2.9的数据缩减系数使可用容量达到1.5PB。
FlashArray m20-m90可以将光纤通道(FC)或者以太网适配卡插入IO插槽。
绿色一列是这次推出的新设备,我们称之为FlashArray//m90,但这纯属猜测。我们被告知,这款新阵列将采用//m70控制器机架,相同的NVRAM和相同数量的IO插槽。但是即将支持4端口的光纤通道,光纤通道端口数量翻番。
未来会升级控制器,使得新系统的速度高于m70;性能可以提高多少还不清楚,所以IOPS和带宽都是猜测的数据,这里使用了斜体字。
这些新信息意味着我们还可以更新一下全闪存阵列的原始容量表格。

这次新推出的高端FlashArray会让Pure登上第五的位置,仅次于Kaminario的K2。

SolidFire更新即将到来
这里需要注意的是,我们认为SolidFire势必会在相当短的时间提高阵列容量,使用更高容量的SSD。目前它使用最大的SSD是960GB,用在了去年2月的SF9605/9010阵列中。
SolidFire表示,将会使用三星的3D V-NAND产品。这个32层的产品线PM1633是在去年1月推出的,容量点从480GB到960GB、1.92TB和3.84TB。
新的PM1633采用48层技术,从本月开始出货,容量点有480GB、960GB、1.92TB、3.84TB、7.68TB和15.36TB。让我们持半谨慎态度,SolidFire选择3.84TB SSD;这意味着10驱动器的SF9010或者SF9605,然后原始容量会找到38.4TB,是现有型号的4倍。
如果SolidFire采用7.68TB SSD,10插槽设备的原始容量将是76.8TB,是现有型号的8倍,100插槽的横向扩展SF9605/9010容量7680TB(7.68PB),采用数据缩减技术活,有效容量会达到25PB。
对于云服务提供商和企业级客户来说,这将是NetApp/SolidFire在今夏推出的一款不错的产品。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。