Dell EMC推出了旨在处理极高性能NAS工作负载的Isilon全闪存系统。这是今年年初EMC World大会上公布的Isilon Nitro进展的一个高潮。

你可以从4节点、4U机箱开始,从96TB到924TB容量,250000 IOPS,最高15GB/s的聚合带宽。
扩展到超过100个机箱,超过400个节点以及92.4PB的容量。这意味着有2500万IOPS,最高1.5TB/s的总聚合带宽,届时将提供多种配置。
这将是一个纯Isilon AF集群或者AF节点,可以添加到现有的Isilon集群中。
4节点起始配置的机箱是一个统一的机箱,而不是4个单独的1U机箱堆栈在一起。
我们认为,这个4U机箱包含60个驱动器,是三星的15.36TB 3D NAND TLC(3bit/cell)SSD,采用NVMe接口。去年2月Isilon产品线增加了HD4000 60插槽的存储设备。
Isilon AF支持NFS、SMB、HDFS、Object、NDMP、FTP、OpenStack、Swift和更多访问协议,Dell EMC表示。它可实现最高80%的存储利用率,1个100机箱的集群内可实现单个文件系统和卷。
重复数据删除功能(贴牌为Isilon SmartDedupe)可以降低存储需求最多可达30%甚至更多。
该系统中支持所有OneFS OS企业功能。
Isilon AF提供了基于角色的访问控制(RBAC);安全访问域;一次写多次读(WORM)数据保护;文件系统审查;通过自加密驱动器(SED)做静态数据加密。
在Isilon工程师看来,极端NAS工作负载包括极端NAS性能——例如4K数据流、基因组测序、电子设计自动化,以及Hortonworks、Cloudera、Pivotal、IBM和Splun等大数据分析厂商的近线实时分析工作负载。
Dell EMC可能已经厌倦了Avere的FXT NAS加速器,显示当前SAS和SATA磁盘驱动器系统不足以支撑像SFX创建及渲染这样的高端工作负载。
与此前高端S系列的定位
这次推出的系统与此前最高性能的S系列Isilon节点有什么关联?S210是在2015年2月推出,一个集群内有7.2TB、14.4TB、21.6TB种容量的节点,144个节点最高容量为3.11PB。全配置的集群提供375万IOPS,因此每个节点是26000 IOPS。
现在EMC表示,S210是从16TB的3节点集群开始,可横向扩展到144个节点,超过4PB,提供300万IOPS,显然要比Isilon AF更慢、密度更低。
Isilon AF与Qumulo以及Pure FlashBlade
初创公司Qumulo在他们的节点中使用充氦气硬盘,该集群基于HPE硬件,采用闪存-磁盘的混合设计。4U QC208配置了2.6TB和208TB磁盘。4节点的QC260集群原始容量1.04PB,使用10TB驱动器。
我们认为,Qumulo系统将有出色的表现,Qumulo 4U 1.04PB与Isilon AF的924TB在存储密度上没有太大差别。但是在成本上应该会相差很大,Isilon要更贵一些。
Pure即将推出的FlashBlade系统将对标Isilon的这款闪存系统。4U系统有15GB/s带宽,533TB原始容量——低于Isilon AF的924TB——采用专有的闪存卡,而不是商用SSD。
Isilon全闪存横向扩展NAS存储现在可以预定,将在2017年供货,可能是在2月,与新版本的OneFS一起,作为一项免费升级提供给现有客户,我们现在还没有得到价格信息。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。