近日,Pure与思科公司利用Pure方面提供的NVMe型FlashArray//x配合思科的NVMe over Fabric光纤通道构建起一套端到端NVMe FLashStack解决方案。
以下三大因素有望促成这款产品的出现:
思科设备支持NVMe over Fabrics光纤通道,而Pure阵列则支持NVMe驱动器。将二者相结合,我们将迎来一套能够在服务器与共享存储阵列间提供次毫秒级延迟的端到端NVMe over Fabrics系统。
FlashStack为结合有思科及Pure解决方案的融合型基础设施(简称CI)模板产品,其类似于此前由思科服务器及网络同NetApp存储方案共同构建的高人气FlexPod CI系统。而利用之前提到的三项技术成果,则足以建立起端到端NVMe FlashStack的参考设计方案。
在各大IT主流厂商当中,只有戴尔-EMC曾经在其DSSD阵列产品线中进行过此类尝试,但在数周之前已经被正式叫停。
NVMe over Fabrics接入型存储阵列领域的其它一些初创企业,包括E8、Excelero、Mangstor、Pavilion DataSystems以及APeiron都利用硬件以太网构建起具备类似访问速度的阵列产品。这些系统皆需要配合RDMA over Ethernet,因此能够为希望升级至NVMe over Fabrics的现有光纤通道SAN用户提供了新的方案选项。
将思科与Pure两家公司的方案进行结合,即将NVMe纳入光纤通道之内,则将带来迥异于现有产品的设计思路。
目前全部主流存储阵列供应商都在尝试向产品线中添加NVMe驱动器,并最终利用NVMe over Fabrics实现阵列访问。不过,就在这些厂商努力进行NVMe驱动器引入时,Pure公司已经顺利完成了这项任务——意味着NVMe over Fibre Channel技术已然成立,只待实际使用。
FlashArray//x将于今年第三季度进入通用销售阶段。来吧,Pure和思科,加油打造出一套端到端NVMe FlashStack,并借此在创新层面给包括戴尔-EMC在内的各家厂商做出榜样!
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。