Nitro项目将Isilon转化为一台专门承载非结构化数据的高速赛车。
EMC公司的全闪存刀片Isilon Nitro项目旨在对其向外扩展文件性能加以提升,可实现单节点25万IOPS与400节点以上容纳能力。
目前的Isilon配合其OneFS操作系统最高可支持144节点,并使用一套InfiniBand内部集群连接机制。集群容量可扩展为18 TB至超过30 PB。其节点类型分为四种:
Isilon还提供一套高性能加速器与一套备份加速器。
EMC公司的Nitro开发工作已经持续了18个月,其最终将补全EMC旗下存储硬件阵营的全闪存名额,与之并列的还有DSSD、VMAX、XtremIO以及Unity。
EMC公司总裁Chad Sakac在博文中指出,一台Nitro节点为4U机柜,采用3.2 TB SSD时可提供200 TB容量:这意味着容纳能力应该为62.5块SSD。就目前来分析,我们姑且认为总容量为192 TB,共分为60块3.2 TB SSD。
Sakac指出,一旦15 TB SSD产品面世,该设备容量将直接提升为900 TB,因此其未来可能使用三星3D TLC(三层单元)NAND驱动器,那么60 x 15正好可计算出900 TB存储总量。
其使用的SSD将为NVMe驱动器,而非SAS或SATA。
在400节点集群当中,用户将达到76.8 PB总容量(400 x 60 x 3.2 TB),Sakac表示400以上节点总量则可提供约100 PB存储空间。但这就与目前放出的消息不太相符了。即使我们将每节点容量计算为200 TB,那么400个节点也只能提供80 PB容量,意味着达到100 PB总空间需要500个节点。
如果真的需要500个节点才能提供100 PB,那么EMC方面应当会照实公布500这一数字——而非400以上。这其中应该会有尚未解释的细节,或者只是一种营销伎俩,毕竟目前观众们真正的关注重点还是在三星3D NAND SSD能否在今年年底提升至7 TB、并于2017年增长至15 TB。
如果使用15 TB SSD,那么我们计算得出的总容量为360 PB(400 x 60 x 15 TB),仍然与官方消息不符。
EMC公司高管们似乎特别喜欢玩这种“扮007”的游戏。
单一节点将配备8个40 GbitE前端端口与另外8个40 GbitE后端(集群间)端口,Sakac表示,其传输带宽为15 GB每秒,按400个以上节点集群来计算总带宽则为每秒1.5 TB。按这样计算,那么400 x 15 GB每秒应该为每秒6 TB带宽,看来其中又有极大的水份存在。
OneFS软件已经经过重新设计以更好地利用闪存资源,而改进后的延迟水平按Sakac的说法亦达到当前的十分之一。按目前5到20毫秒来计算,新设备的延迟应在0.5到1毫秒之间。
其支持的访问协议包括SMB 3.x、NFS v3/v4、HDFS以及Object接口(S3与其它)。
We'll have to wait and see.这里还没有提到数据削减功能,我们相信其应该会配备相关功能,亦可能以可选形式提供。不知道届时客户能不能以混合方式将Nitro节点添加至现有Isilon节点当中。
其适用目标包括高性能计算、医疗卫生、电子设计自动化、媒体以及对IFX与CGI有特殊要求的娱乐领域等。
EMC公司新兴技术事业部总裁CJ Desai指出,Nitro将能够向上扩展至全机架规模——这里他使用了“向上”的说法,即10节点规模。而按400以上节点来计算,那么其可以向外扩展至10机架水平。
Pure公司的向外扩展FlashBlade项目可以作为其比较对象,其在4U设备中塞入15台刀片,最大原始容量为780 TB,数据压缩后容量可达1.6 PB,传输带宽为15 GB每秒,与Isilon Nitro节点基本一致。Pure公司目前还没有谈到FlashBlade集群所能容纳的最大节点数量。
Desai指出,Nitro拥有50倍于现有竞争对手的传输带宽、50倍存储容量与仅达到其一半的价格设定,根据我们的理解这里指的应该是Pure的FlashBlade。好吧,每4U节点780 TB原始容量的FlashBlade与Nitro的900 TB原始容量相比似乎并没有多大差距,除非这里说的是Pure方面未经过数据压缩的情况。
当然,Nitro将会提供数据压缩功能。
虽然还不清楚Pure方面的集群节点容纳能力,但如果按照双方打平的结果来看,EMC所言的容量或者传输带宽优势似乎并不存在。
至于成本方面,谁知道2017年各供应商的产品会卖出怎样的价格?
我们只能期待向外扩展NAS初创企业Qumulo能够开发出自己的全闪存产品,从而为这部分市场增添一股力量。
Isilon的Nitro向外扩展设备预计将在2017年年内推出,而beta测试工作则将在今年年内完成。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。