我们和很多人谈到了英特尔的Ruler SSD和三星“迷你Ruler”SSD,其中我们从Infinidat那里得到了一些有趣的观点。
我们本来想,因为Infinidat 使用磁盘提供大容量存储,并且说你不需要全闪存阵列来获得性能,所以我们可能根本不会从Infinidat 那里得到回复。
但我们错了,我们从Infinidat 公司EMEA地区首席技术官Eran Brown那里得到了一个有趣的观点。
Brown首先总体介绍了Infinidat对闪存的看法,然后谈到了我们提出的问题。
Infinidat的InfiniBox很大程度上依赖于SSD的缓存/性能等级,而且Infinidat将大量精力投入到将合适的数据放入RAM和SSD中以实现低延迟的软件中。
Brown说:“我们唯一的反对全闪存是‘全’这个部分:我们坚信,企业级闪存和近线SAS之间的价格差距不会随着时间的推移缩小到9:1以下,因此闪存必须用于实现性能,而不是用于保存所有数据[因为这是浪费]。”
问:在容量、空间密度和功率效率方面,您认为这些格式与现有的2.5英寸闪存驱动器格式相比如何?
Eran Brown:我认为一旦标准化,这些新格式将有助于降低每TB成本,提高密度。他们将需要新的数据布局架构来应对它的“爆炸半径”。
问:您是否设想将其用于JBOF、存储阵列、超融合系统以及/或者普通服务器?如果是的话,您能描述下是以何种方式吗?
Eran Brown:我认为从长远来看,所有的用例都是可能的,但如果不付出相同的努力——因为这些努力会转化为上市时间——企业是否真的追求这个目标?
1、作为DAS使用,这是最省力也是上市最快的途径。这种方法将被用于为一台服务器(三星)或者多台服务器(英特尔)提供大量的闪存空间。
2、作为封装使用,这需要改变数据布局,需要更多的努力和上市时间。这个努力很可能将围绕数据布局和硬件处理展开的,但也涉及到其他方面。
问:具体来说,你认为英特尔的Ruler格式在服务器中是扮演一定角色的?
Eran Brown:是的,它解决了分布式集群中节点的闪存大容量问题。没有太多的集群需要这么大的容量和闪存,但是由于特定的大数据挑战,可能会有一些用途。这些集群可能使用分布式、基于副本的数据布局,这会提高采用这种规格的价格,从而进一步限制了实际部署的适用性。
问:这同样适用于三星的迷你Ruler格式吗?
Eran Brown:目前三星的方法似乎是用于服务器内部,所以CPU与TB的比例是相当有限的,也许一台配置了一个GPU的双路服务器智能提供这么多的性能,这就引出了一个问题,这对一台服务器来说是否容量太大了?
我认为还是有一些使用实例的,客户可以简单地在服务器内放置较少的Ruler模块来降低这个比例。同样地,在外部的用途比较有限,可能有些客户会用到。
问:你认为这些新的驱动器格式将使用NVMe接口、而不是SAS和SATA吗?为什么?
Eran Brown:NVMe(NVMe-oF)是一个很自然的选择,因为这种新的闪存格式没有理由去采用较慢速的接口。这也是阻碍了客户采用的一个原因(因为大多数客户仍然认为NVMe是太前瞻了,缺乏一些功能性)。例如,多路径还处于早期阶段。
问:你如何看待三星在其迷你Ruler SSD上实施对象存储?你认为这有用吗?
Eran Brown:我认为这里涉及两个方面:性能和功能。
性能取决于[三星]对象存储的有效性。如果通过采用字节寻址设备和增加对象存储降低了延迟,那么这将是一个不错的选择。
我只能假定三星的功能将落后于对象存储厂商提供的功能——我认为多租户就是一个明显的例子。所以目前还不清楚哪些用例会在什么时候适用,因为功能可能会随着时间的推移而扩展。
评论
所以这里我们没有看到Infinidat关于采用这种类型闪存驱动器的明确信息——这不是我们所期望的。关于“爆炸半径”的观点很好,我们认为,可能需要某种形式的限制。
同样,关于三星实施对象存储的观点看起来很强烈,与其他驱动级别的对象存储方案(如OpenIO)一样,采用这些方案将需要可靠且可证明的用例好处。
好文章,需要你的鼓励
这篇研究提出了OThink-R1,一种创新的大型推理模型,能够像人类一样在快速直觉思维和慢速深度推理之间自动切换。研究者发现,现有推理模型即使面对简单问题也会生成冗长的推理过程,导致计算资源浪费。通过分析推理轨迹并使用LLM评判员区分冗余和必要推理,OThink-R1能根据问题复杂度动态调整思考深度。实验表明,该方法平均减少了23.4%的生成文本量,同时保持或提高了准确率,代表了向更高效、更人性化AI推理系统迈出的重要一步。
这项研究提出了SHARE,一种新型文本到SQL修正框架,它利用三个小型语言模型(SLM)协同工作,实现高效精准的SQL错误修正。SHARE首先通过基础行动模型将SQL转换为行动轨迹,再经过模式增强模型和逻辑优化模型的层次化精细化修正。研究团队还创新性地提出了层次化自演化训练策略,大大提高了训练数据效率。实验结果表明,SHARE在多个基准测试上显著提升了SQL生成准确率,计算成本仅为传统方法的十分之一,并展现出强大的泛化能力,适用于各种生成器模型和SQL方言。
这项由香港大学和南京大学等机构研究人员联合开发的双专家一致性模型(DCM)解决了高质量视频生成中的效率难题。研究团队发现扩散模型蒸馏过程中存在优化冲突:早期阶段负责语义布局与运动,后期阶段关注细节精修,两者学习动态差异显著。DCM创新性地将这两个任务分配给不同的专家模型,通过参数高效的实现方式,使模型仅需4步即可生成接近50步原始模型质量的视频,大幅提升生成速度,为实用化AI视频创作铺平道路。
这项研究介绍了QARI-OCR,一种基于Qwen2-VL-2B-Instruct模型微调的阿拉伯文字识别系统。研究团队通过三阶段合成数据训练,成功解决了阿拉伯文字识别中的主要挑战:曲线连笔特性、上下文变化的字母形状和发音符号。QARI v0.2模型创下了0.061的字符错误率和0.160的单词错误率,超越了现有开源解决方案,为阿拉伯文化遗产的数字化保存提供了重要工具。