全闪存阵列现在已经成为保存高速访问主数据的热门选择,但是还没有被用于保存二级数据(例如非结构化数据)、普通文件以及灾难恢复数据。但是变化正在发现,受到更便宜的闪存驱动器的推动,高速访问二级数据显然要好于慢速访问。
产品有很多:
- WD SanDisk InfiniFlash,合作伙伴包括:
- CloudByte
- Nexenta
- Tegile IntelliFlash
- Red Hat
- Toshiba Flash Matrix
- Pure Storage FlashBlade
- 即将推出的Isilon全闪存阵列
- Dell EMC DSSD D5 array
闪存技术日益发展,成本越来越低——特别是3D NAND分层数从48个增加到64个,路线图上还有72个(SK Hynix)一直到96或者128层。我们开始听到更多关于QLC(4bit/cell),这是向TLC(3bit/cell)闪存增加了第三个容量空间。
现在我们也开始听说已经有客户在使用这种技术,显示了这种基于闪存的二级数据闪存在发展中。最近我们还听到了Pure Storage FlashBlade击败了NetApp,现在我们还听说了另一个消息。
一家名为Peak 10的云服务提供商将在基于WD SanDisk InfiniFlash硬件和NexentaStor软件的云服务上提供灾难恢复服务。私人公司Peak 10在美国有16个数据中心,有超过2600家客户。它为一系列工作负载提供Recovery Coud,有针对托管客户的DRaaS,这些客户使用Peak 10生产工作负载,此外也针对其他用户。
Peak 10需要升级它的硬件和软件,并且采用了运行超过2.5PB的InfiniFlash硬件,运行NexentaStor软件。
据称,其数据访问延迟现在是1-2毫秒,高于此前基于磁盘的存储,后者延迟是5-20毫秒。它还将所需的机架空间从100U缩小到7U,电力需求降低75%。
Peak 10公司云基础设施总监Chad Buzzard在声明中表示:“我们的很多客户会定期做灾难恢复测试,取决于客户到底测试的是什么,他们对磁盘性能的担忧会越来越多。自从切换到基于闪存的软件定义存储,延迟更低而吞吐量更高了,这些担忧基本上也都消除了。”
IDC研究总监Eric Burgener谈到了二级存储,他在声明中说:“全闪存阵列显然是主存储的未来,像InfiniFlash这样的产品——当运行在像NexentaStor这样的企业级统一存储软件平台上——正在将闪存的好处带给更多的工作负载类型,例如灾难恢复,这些工作负载通常被认为是应该采用二级存储。”
这里的关键点是,低成本的闪存和存储软件让全闪存配置的二级存储成为可行的,特别是当高速访问二级数据很重要的时候。Nexenta公司首席执行官兼总裁Tarkan Maner强调这一点:“全闪存软件定义存储正在打破存储经济的壁垒,让我们的客户可以将闪存带入那些以前他们从未考虑过的工作负载。”
预计2017年我们将会看到越来越多的客户采购全闪存配置的二级存储,这也将让更多厂商进入到这个市场,直接进入或者通过与WD的OEM合作。
我们可以注意到以下全闪存阵列厂商到目前为止都还没有合适的产品:
- Dell EMC,除了高端DSSD D5——但是据说马上会推出全闪存版的Isilon系统
- Fujitsu
- HDS
- HPE
- IBM
- Kaminario
- NetApp
- Nimble Storage
- Tintri
而且这还不是完整的列表。
闪存用于高速数据,磁盘用于慢速大容量数据,这就像是拿精英与糟粕对比。但是现在这个情况正在发生改变。
全闪存二级存储的潜在市场是巨大的,而且一旦大容量的64层3D NAND驱动器就绪,并且经济实惠,那么我们可能会看到大量产品涌入市场。不过闪存在二级存储中取代磁盘,恐怕还需要几十年的时间。
最后一点想法:对象存储一直被视为慢速、基于使用磁盘存储的节点。假设对象存储最后变成了使用闪存的节点……
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。