Nitro项目将Isilon转化为一台专门承载非结构化数据的高速赛车。
EMC公司的全闪存刀片Isilon Nitro项目旨在对其向外扩展文件性能加以提升,可实现单节点25万IOPS与400节点以上容纳能力。
目前的Isilon配合其OneFS操作系统最高可支持144节点,并使用一套InfiniBand内部集群连接机制。集群容量可扩展为18 TB至超过30 PB。其节点类型分为四种:
Isilon还提供一套高性能加速器与一套备份加速器。
EMC公司的Nitro开发工作已经持续了18个月,其最终将补全EMC旗下存储硬件阵营的全闪存名额,与之并列的还有DSSD、VMAX、XtremIO以及Unity。
EMC公司总裁Chad Sakac在博文中指出,一台Nitro节点为4U机柜,采用3.2 TB SSD时可提供200 TB容量:这意味着容纳能力应该为62.5块SSD。就目前来分析,我们姑且认为总容量为192 TB,共分为60块3.2 TB SSD。
Sakac指出,一旦15 TB SSD产品面世,该设备容量将直接提升为900 TB,因此其未来可能使用三星3D TLC(三层单元)NAND驱动器,那么60 x 15正好可计算出900 TB存储总量。
其使用的SSD将为NVMe驱动器,而非SAS或SATA。
在400节点集群当中,用户将达到76.8 PB总容量(400 x 60 x 3.2 TB),Sakac表示400以上节点总量则可提供约100 PB存储空间。但这就与目前放出的消息不太相符了。即使我们将每节点容量计算为200 TB,那么400个节点也只能提供80 PB容量,意味着达到100 PB总空间需要500个节点。
如果真的需要500个节点才能提供100 PB,那么EMC方面应当会照实公布500这一数字——而非400以上。这其中应该会有尚未解释的细节,或者只是一种营销伎俩,毕竟目前观众们真正的关注重点还是在三星3D NAND SSD能否在今年年底提升至7 TB、并于2017年增长至15 TB。
如果使用15 TB SSD,那么我们计算得出的总容量为360 PB(400 x 60 x 15 TB),仍然与官方消息不符。
EMC公司高管们似乎特别喜欢玩这种“扮007”的游戏。
单一节点将配备8个40 GbitE前端端口与另外8个40 GbitE后端(集群间)端口,Sakac表示,其传输带宽为15 GB每秒,按400个以上节点集群来计算总带宽则为每秒1.5 TB。按这样计算,那么400 x 15 GB每秒应该为每秒6 TB带宽,看来其中又有极大的水份存在。
OneFS软件已经经过重新设计以更好地利用闪存资源,而改进后的延迟水平按Sakac的说法亦达到当前的十分之一。按目前5到20毫秒来计算,新设备的延迟应在0.5到1毫秒之间。
其支持的访问协议包括SMB 3.x、NFS v3/v4、HDFS以及Object接口(S3与其它)。
We'll have to wait and see.这里还没有提到数据削减功能,我们相信其应该会配备相关功能,亦可能以可选形式提供。不知道届时客户能不能以混合方式将Nitro节点添加至现有Isilon节点当中。
其适用目标包括高性能计算、医疗卫生、电子设计自动化、媒体以及对IFX与CGI有特殊要求的娱乐领域等。
EMC公司新兴技术事业部总裁CJ Desai指出,Nitro将能够向上扩展至全机架规模——这里他使用了“向上”的说法,即10节点规模。而按400以上节点来计算,那么其可以向外扩展至10机架水平。
Pure公司的向外扩展FlashBlade项目可以作为其比较对象,其在4U设备中塞入15台刀片,最大原始容量为780 TB,数据压缩后容量可达1.6 PB,传输带宽为15 GB每秒,与Isilon Nitro节点基本一致。Pure公司目前还没有谈到FlashBlade集群所能容纳的最大节点数量。
Desai指出,Nitro拥有50倍于现有竞争对手的传输带宽、50倍存储容量与仅达到其一半的价格设定,根据我们的理解这里指的应该是Pure的FlashBlade。好吧,每4U节点780 TB原始容量的FlashBlade与Nitro的900 TB原始容量相比似乎并没有多大差距,除非这里说的是Pure方面未经过数据压缩的情况。
当然,Nitro将会提供数据压缩功能。
虽然还不清楚Pure方面的集群节点容纳能力,但如果按照双方打平的结果来看,EMC所言的容量或者传输带宽优势似乎并不存在。
至于成本方面,谁知道2017年各供应商的产品会卖出怎样的价格?
我们只能期待向外扩展NAS初创企业Qumulo能够开发出自己的全闪存产品,从而为这部分市场增添一股力量。
Isilon的Nitro向外扩展设备预计将在2017年年内推出,而beta测试工作则将在今年年内完成。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。