目前至少有两家全闪存阵列厂商推出了客户只用为实际使用容量付费的定价模式。
Nimble Storage本月推出了Nimble Storage on Demand计划,在该计划下客户只需要为他们实际使用的容量支付费用。竞争对手Tegile Systems也在今年4月低调地推出类似的定价解决方案,现在也正在积极向客户推广。
对于这两家公司的客户来说,基于实际使用量付费的模式意味着,随着存储容量的增加,每月的费用会随之增加,而月度用量的减少也意味着月度费用的减少。
这两家公司的合作伙伴称,这对于客户来说是一套不错的机制。
Centre Technologies是一家总部位于休斯敦的解决方案提供商,同时也是Tegile Systems的渠道合作伙伴。该公司创始人兼首席执行官Chris Pace认为,“随成长付费”的模式在预算和容量预测方面对客户有所帮助。
他说:“以运营成本和资本成本的方式提供全闪存存储会与客户产生共鸣。”
存储的最大问题是,随着客户IT基础设施变得高度虚拟化,对存储需求的规划也变得越来越困难,Pace这样表示。
“你必须确保存储部分的一切正常,否则你就会面临麻烦。事实上,按照容量付费的方式可以和他们产生共鸣,因为这相比超量采购存储容量来说风险要小一些。”
Nascent Integrated Solutions是一家总部在加州洛斯加托斯的解决方案提供商,同时也是Nimble Storage的渠道合作伙伴。该公司首席执行官Steve Welch表示,他喜欢全闪存存储系统根据使用容量定价的方式。
他说:“我们有大型客户,包括构建OpenStack云,他们有大量数据,但是并不确定这些数据的增长速度有多快。提前采购存储容量是有风险的,这对很多公司来说都是令人头疼的问题。”
这种解决方案对于渠道合作伙伴来说也是很好的,Welch这样表示。
“收费是由Nimble来做的,它会给我一个收入的百分比。从我们这方面来说是零风险的,我们得到的是经常性收入。”
Nimble Storage战略及市场开发高级总监Gavin Cohen表示,公司的定价模式是基于服务等级的,不同GB容量的费用是根据四种具体的性能要求等级。
他说:“客户选择性能级别,我们就会出货让他们起始使用的容量。我们还会提供额外的缓冲能力让他们有成长的空间。然后,使用我们的InfoSight管理应用,我们会查看容量的使用情况,然后向他们发送基于容量的账单。”
使用InfoSight,Nimble Storage还会查看现有容量、预期容量和缓冲容量,以按照提供更多可用容量。付费是基于前一个月高峰容量计算的。
他们是没有“基本费用”的,Cohen这样表示。但是会有一个最低TB的基本容量。“大多数客预期使用容量会超过这个水平。”
他说,新的定价模式并不是一个契约。“这是一个真正的基于效用的成本模式。客户不会被一个容量的前期承诺所限制。在我们的模式中,你用的越多,你付出的费用越多。对于服务提供商来说,这与他们现有收取费用的模式是一致的。”
Cohen拒绝透露Nimble Storage基于效用付费模式的每GB价格。
Tegile Systems营销副总裁Rob Commins表示,Tegile的Agility存储容量定价更类似于云。
“我们实际上是在阵列端设置了一个咪表。它会查看存储容量的容量,在某个时候加载的容量,以及数据精简信息,让经销商更类似于服务提供商。”
这项计划从今年4月开始,但是最近才规模推广,不要求对客户的基础设施做更改,Commins这样表示。Tegile Systems将阵列出售给Tegile Capital,而不是每个月向终端用户发送账单。
他说:“资本成本很低,如果客户一直不超出最低配置的话,他们仍然有可能获得30%的折扣。所以实际上是要比标准租赁是便宜的。”
Commins表示,Tegile Systems每月每GB收入5美分的费用,而且数据是经过重复数据删除和压缩的。“这正好介于Azure和Amazon定价之间。”
Tegile还推出了一个新的入门级版本的全闪存阵列,有9TB和24TB两种配置,而早前T3800阵列的配置是38TB。
“我们此前的型号是采用混合闪存和磁盘式的阵列这。但是很多客户不会用全闪存阵列替代现有存储。相反,他们会采用闪存阵列补充现有的容量。”
9TB的型号标价为22500美元。9TB和24TB的型号目前均已出货。
除了基于效用的定价模式之外,Nimble Storage本月还将自己的存储解决方案与OpenStack云平台进行了集成,Cohen这样表示。
他说:“在过去12个月中,我们听到客户越来越多关于闪存存储与OpenStack公有云及私有云集成的询问。”
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。