全闪存阵列现在已经成为保存高速访问主数据的热门选择,但是还没有被用于保存二级数据(例如非结构化数据)、普通文件以及灾难恢复数据。但是变化正在发现,受到更便宜的闪存驱动器的推动,高速访问二级数据显然要好于慢速访问。
产品有很多:
- WD SanDisk InfiniFlash,合作伙伴包括:
- CloudByte
- Nexenta
- Tegile IntelliFlash
- Red Hat
- Toshiba Flash Matrix
- Pure Storage FlashBlade
- 即将推出的Isilon全闪存阵列
- Dell EMC DSSD D5 array
闪存技术日益发展,成本越来越低——特别是3D NAND分层数从48个增加到64个,路线图上还有72个(SK Hynix)一直到96或者128层。我们开始听到更多关于QLC(4bit/cell),这是向TLC(3bit/cell)闪存增加了第三个容量空间。
现在我们也开始听说已经有客户在使用这种技术,显示了这种基于闪存的二级数据闪存在发展中。最近我们还听到了Pure Storage FlashBlade击败了NetApp,现在我们还听说了另一个消息。
一家名为Peak 10的云服务提供商将在基于WD SanDisk InfiniFlash硬件和NexentaStor软件的云服务上提供灾难恢复服务。私人公司Peak 10在美国有16个数据中心,有超过2600家客户。它为一系列工作负载提供Recovery Coud,有针对托管客户的DRaaS,这些客户使用Peak 10生产工作负载,此外也针对其他用户。
Peak 10需要升级它的硬件和软件,并且采用了运行超过2.5PB的InfiniFlash硬件,运行NexentaStor软件。
据称,其数据访问延迟现在是1-2毫秒,高于此前基于磁盘的存储,后者延迟是5-20毫秒。它还将所需的机架空间从100U缩小到7U,电力需求降低75%。
Peak 10公司云基础设施总监Chad Buzzard在声明中表示:“我们的很多客户会定期做灾难恢复测试,取决于客户到底测试的是什么,他们对磁盘性能的担忧会越来越多。自从切换到基于闪存的软件定义存储,延迟更低而吞吐量更高了,这些担忧基本上也都消除了。”
IDC研究总监Eric Burgener谈到了二级存储,他在声明中说:“全闪存阵列显然是主存储的未来,像InfiniFlash这样的产品——当运行在像NexentaStor这样的企业级统一存储软件平台上——正在将闪存的好处带给更多的工作负载类型,例如灾难恢复,这些工作负载通常被认为是应该采用二级存储。”
这里的关键点是,低成本的闪存和存储软件让全闪存配置的二级存储成为可行的,特别是当高速访问二级数据很重要的时候。Nexenta公司首席执行官兼总裁Tarkan Maner强调这一点:“全闪存软件定义存储正在打破存储经济的壁垒,让我们的客户可以将闪存带入那些以前他们从未考虑过的工作负载。”
预计2017年我们将会看到越来越多的客户采购全闪存配置的二级存储,这也将让更多厂商进入到这个市场,直接进入或者通过与WD的OEM合作。
我们可以注意到以下全闪存阵列厂商到目前为止都还没有合适的产品:
- Dell EMC,除了高端DSSD D5——但是据说马上会推出全闪存版的Isilon系统
- Fujitsu
- HDS
- HPE
- IBM
- Kaminario
- NetApp
- Nimble Storage
- Tintri
而且这还不是完整的列表。
闪存用于高速数据,磁盘用于慢速大容量数据,这就像是拿精英与糟粕对比。但是现在这个情况正在发生改变。
全闪存二级存储的潜在市场是巨大的,而且一旦大容量的64层3D NAND驱动器就绪,并且经济实惠,那么我们可能会看到大量产品涌入市场。不过闪存在二级存储中取代磁盘,恐怕还需要几十年的时间。
最后一点想法:对象存储一直被视为慢速、基于使用磁盘存储的节点。假设对象存储最后变成了使用闪存的节点……
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。