目前至少有两家全闪存阵列厂商推出了客户只用为实际使用容量付费的定价模式。
Nimble Storage本月推出了Nimble Storage on Demand计划,在该计划下客户只需要为他们实际使用的容量支付费用。竞争对手Tegile Systems也在今年4月低调地推出类似的定价解决方案,现在也正在积极向客户推广。
对于这两家公司的客户来说,基于实际使用量付费的模式意味着,随着存储容量的增加,每月的费用会随之增加,而月度用量的减少也意味着月度费用的减少。
这两家公司的合作伙伴称,这对于客户来说是一套不错的机制。
Centre Technologies是一家总部位于休斯敦的解决方案提供商,同时也是Tegile Systems的渠道合作伙伴。该公司创始人兼首席执行官Chris Pace认为,“随成长付费”的模式在预算和容量预测方面对客户有所帮助。
他说:“以运营成本和资本成本的方式提供全闪存存储会与客户产生共鸣。”
存储的最大问题是,随着客户IT基础设施变得高度虚拟化,对存储需求的规划也变得越来越困难,Pace这样表示。
“你必须确保存储部分的一切正常,否则你就会面临麻烦。事实上,按照容量付费的方式可以和他们产生共鸣,因为这相比超量采购存储容量来说风险要小一些。”
Nascent Integrated Solutions是一家总部在加州洛斯加托斯的解决方案提供商,同时也是Nimble Storage的渠道合作伙伴。该公司首席执行官Steve Welch表示,他喜欢全闪存存储系统根据使用容量定价的方式。
他说:“我们有大型客户,包括构建OpenStack云,他们有大量数据,但是并不确定这些数据的增长速度有多快。提前采购存储容量是有风险的,这对很多公司来说都是令人头疼的问题。”
这种解决方案对于渠道合作伙伴来说也是很好的,Welch这样表示。
“收费是由Nimble来做的,它会给我一个收入的百分比。从我们这方面来说是零风险的,我们得到的是经常性收入。”
Nimble Storage战略及市场开发高级总监Gavin Cohen表示,公司的定价模式是基于服务等级的,不同GB容量的费用是根据四种具体的性能要求等级。
他说:“客户选择性能级别,我们就会出货让他们起始使用的容量。我们还会提供额外的缓冲能力让他们有成长的空间。然后,使用我们的InfoSight管理应用,我们会查看容量的使用情况,然后向他们发送基于容量的账单。”
使用InfoSight,Nimble Storage还会查看现有容量、预期容量和缓冲容量,以按照提供更多可用容量。付费是基于前一个月高峰容量计算的。
他们是没有“基本费用”的,Cohen这样表示。但是会有一个最低TB的基本容量。“大多数客预期使用容量会超过这个水平。”
他说,新的定价模式并不是一个契约。“这是一个真正的基于效用的成本模式。客户不会被一个容量的前期承诺所限制。在我们的模式中,你用的越多,你付出的费用越多。对于服务提供商来说,这与他们现有收取费用的模式是一致的。”
Cohen拒绝透露Nimble Storage基于效用付费模式的每GB价格。
Tegile Systems营销副总裁Rob Commins表示,Tegile的Agility存储容量定价更类似于云。
“我们实际上是在阵列端设置了一个咪表。它会查看存储容量的容量,在某个时候加载的容量,以及数据精简信息,让经销商更类似于服务提供商。”
这项计划从今年4月开始,但是最近才规模推广,不要求对客户的基础设施做更改,Commins这样表示。Tegile Systems将阵列出售给Tegile Capital,而不是每个月向终端用户发送账单。
他说:“资本成本很低,如果客户一直不超出最低配置的话,他们仍然有可能获得30%的折扣。所以实际上是要比标准租赁是便宜的。”
Commins表示,Tegile Systems每月每GB收入5美分的费用,而且数据是经过重复数据删除和压缩的。“这正好介于Azure和Amazon定价之间。”
Tegile还推出了一个新的入门级版本的全闪存阵列,有9TB和24TB两种配置,而早前T3800阵列的配置是38TB。
“我们此前的型号是采用混合闪存和磁盘式的阵列这。但是很多客户不会用全闪存阵列替代现有存储。相反,他们会采用闪存阵列补充现有的容量。”
9TB的型号标价为22500美元。9TB和24TB的型号目前均已出货。
除了基于效用的定价模式之外,Nimble Storage本月还将自己的存储解决方案与OpenStack云平台进行了集成,Cohen这样表示。
他说:“在过去12个月中,我们听到客户越来越多关于闪存存储与OpenStack公有云及私有云集成的询问。”
好文章,需要你的鼓励
这篇研究提出了OThink-R1,一种创新的大型推理模型,能够像人类一样在快速直觉思维和慢速深度推理之间自动切换。研究者发现,现有推理模型即使面对简单问题也会生成冗长的推理过程,导致计算资源浪费。通过分析推理轨迹并使用LLM评判员区分冗余和必要推理,OThink-R1能根据问题复杂度动态调整思考深度。实验表明,该方法平均减少了23.4%的生成文本量,同时保持或提高了准确率,代表了向更高效、更人性化AI推理系统迈出的重要一步。
这项研究提出了SHARE,一种新型文本到SQL修正框架,它利用三个小型语言模型(SLM)协同工作,实现高效精准的SQL错误修正。SHARE首先通过基础行动模型将SQL转换为行动轨迹,再经过模式增强模型和逻辑优化模型的层次化精细化修正。研究团队还创新性地提出了层次化自演化训练策略,大大提高了训练数据效率。实验结果表明,SHARE在多个基准测试上显著提升了SQL生成准确率,计算成本仅为传统方法的十分之一,并展现出强大的泛化能力,适用于各种生成器模型和SQL方言。
这项由香港大学和南京大学等机构研究人员联合开发的双专家一致性模型(DCM)解决了高质量视频生成中的效率难题。研究团队发现扩散模型蒸馏过程中存在优化冲突:早期阶段负责语义布局与运动,后期阶段关注细节精修,两者学习动态差异显著。DCM创新性地将这两个任务分配给不同的专家模型,通过参数高效的实现方式,使模型仅需4步即可生成接近50步原始模型质量的视频,大幅提升生成速度,为实用化AI视频创作铺平道路。
这项研究介绍了QARI-OCR,一种基于Qwen2-VL-2B-Instruct模型微调的阿拉伯文字识别系统。研究团队通过三阶段合成数据训练,成功解决了阿拉伯文字识别中的主要挑战:曲线连笔特性、上下文变化的字母形状和发音符号。QARI v0.2模型创下了0.061的字符错误率和0.160的单词错误率,超越了现有开源解决方案,为阿拉伯文化遗产的数字化保存提供了重要工具。