存储业界已经明确认识到物理阵列市场的持续衰退。廉价的云存储与虚拟阵列方案正在成本优势的驱动下迅速崛起,而且在实用性方面往往并不会带来任何影响;有鉴于此,我们确实很难证明为大多数应用程序配备专用阵列到底有何必要。
Forrester自然也清楚这一点,分析师Henry Baltazar更作出声明称,我们应该“利用应用程序作为下一套存储阵列”。
Baltazar估计称目前的阵列产品主要供应给x86服务器系统,但其销售形式多年以来始终没有变化——一直作为非弹性资源存在。此外,阵列的吸引力还主要体现在价格优势层面,但随着近一段时间云服务与各类资源池机制在x86服务器上的不断涌现、前者的这种优势光环正在迅速褪去。
现在是时候正视阵列产品在成本与灵活性方面的局限了,Baltazar表示,如今我们应该转换思路、将虚拟阵列作为未来存储方案选择中的关注重点。
他还在博文中将惠普、Sanbolic以及Maxta作为值得我们认真考量的虚拟阵列供应商,同时指出EMC、IBM以及NetApp同样开始进军虚拟阵列业务。VMware与DataCore虽然也提供虚拟阵列产品,但在他眼中尚不值得一提。
“现在正是将存储技术更多地作为应用程序加以对待的良好时机,而且以闪存SSD为代表的商用硬件组件在价格上也往往要比企业级存储供应商提供的存储介质更为低廉,”他在文章中写道。
之所以会在这里提到闪存,是因为众多阵列供应商开始越来越多地利用闪存机制对产品的I/O能力加以优化,而这一趋势正在将更多固态存储设备引入数据中心环境。Baltazar同时指出,如果连工程技术因素都不再产生影响,那么向虚拟存储机制的转换可谓恰逢其时。
当然,长期关注存储技术动态的朋友们很清楚,Baltazar的这篇博文其实并没有什么实质性的新内容。不过他所表达的观点确实足够客观,而且如此直言不讳的表达也值得大家认真关注。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。