IBM本周二扩大了自己的全闪存存储产品线,增加了一款瞄准大数据和其他非结构化数据应用的产品。
"新推出的IBM DeepFlash 150计划从本周晚些时候开始出货,针对那些要求标准全闪存存储解决方案不具备的容量的应用。"IBM存储系统、文件和对象存储产品总监Alex Chen表示。
大多数全闪存存储阵列专注于更为传统的应用,例如VDI虚拟桌面、块存储和在线交易处理等。
分析师告诉我们,有80%的数据都是非结构化的,大数据对于闪存存储来说是一个不同的问题。自有了大数据,数据就迈向了PB级,而不是TB级。非结构化数据的增速是结构化数据的两倍。因此可扩展性是一个很重要的因素。
"大数据和其他非结构化数据也要求低成本的存储,很多非结构化数据例如视频已经被压缩,所以很难指望通过精简数据来节省空间。" Alex Chen表示。
因此,IBM DeepFlash 150采用了与IBM现有基于FlashCore的全闪存阵列不同的架构。
IBM表示,新产品的价格大约是每GB 1美元,很多厂商包括IBM都已经拥有在这个价位上的全闪存解决方案。但是其他包括IBM的解决方案,支持压缩和重复数据删除功能,都无法应对非结构化数据。
IBM DeepFlash 150是3U机架,每个都可以配置128TB到512TB的容量。结合IBM Spectrum Scale软件(用于文件、对象和集成的数据分析),IBM DeepFlash 150可以扩展到数EB的容量,Chen表示。
将两者结合为一套完整的解决方案,这将帮助客户和渠道合作伙伴支持像内存分析、媒体和娱乐、实时分析、高性能计算、生命科学和基因组学这样的工作负载,Alex Chen说。
Re-Store是一家位于加州圣马科斯的解决方案提供商、IBM长期业务合作伙伴,该公司总裁、基础设施架构师Michael Sedlmayer表示,这样一套包含有Spectrum Scale的解决方案让他对IBM DeepFlash 150很感兴趣。
要想对大数据和其他非结构化数据使用全闪存存储,就必须有足够的容量应对整个工作负载,并且能够在完成之后把数据迁移到别处,Sedlmayer说。
"这方面的一大障碍一直是闪存存储的高成本,如果一个工作集要求100TB容量,但是客户只能负担得起10TB,那就很难处理这个工作负载。有了DeepFlash 150,客户就有能力利用闪存来处理他们的工作负载。"
Sycomp是一家位于加州福斯特城的解决方案提供商、IBM长期业务合作伙伴,该公司全球系统解决方案高管John Zawistowski表示,DeepFlash 150填补了IBM闪存存储产品线一个巨大的空白。
"IBM闪存存储是市场中速度最快的,"Zawistowski说。"但是在那些不需要最快的存储的中端市场有所缺失。但是结合了Spectrum Scale,DeepFlash 150就获得了高级的功能特性。"
客户并不总是需要IBM FlashCore存储那样的性能,Zawistowski说。"价格是与性能相关的,"他说。
Chen预计IBM的渠道合作伙伴会在DeepFlash 150的销售中占大约80%的份额,特别是那些Spectrum Scale的合作伙伴。
"今年,我们预计有很大一部分的DeepFlash 150客户将会把Spectrum Scale连接到需要提升性能的旧型号存储系统上,"他说。"这是一开始最容易的采用方式。但是随着时间的推移,我们将看到有更多的案例,客户采用其他文件系统"
好文章,需要你的鼓励
NOVER是一种创新的无验证器强化学习框架,解决了传统激励训练依赖外部验证器的限制。由伦敦国王学院研究团队开发,它通过计算"推理困惑度"作为奖励代理,使语言模型能在任何文本任务中自主发展推理能力。实验表明,NOVER在一般推理、创意写作、社会智能和多语言能力等多种任务上均优于基线方法,甚至使3B模型接近从671B模型蒸馏版本的性能。此外,其灵活性还支持"反向激励训练"等创新应用,为语言模型训练开辟了新方向。
韩国中央大学研究团队开发了名为CoPriva的基准测试,评估大语言模型遵守上下文安全策略的能力。研究发现,虽然多数模型能成功拒绝直接违反安全政策的查询,但在面对间接攻击时存在严重漏洞,泄露率平均增加40%以上。即使是推理能力强的模型也未显示出明显优势,且高忠实度的回答往往伴随更多信息泄露。研究团队评估了10种先进模型,发现政策存在与否对防止泄露影响有限,而修订功能仅能部分提升合规性。这揭示了当前AI安全对齐的重大缺陷,强调了开发更强健安全机制的紧迫性。
这项研究分析了混合专家模型(MoE)的"局部路由一致性"特性,即连续词元激活相似专家的程度,这对内存受限设备上的模型部署至关重要。研究者提出了两种测量指标:段路由最佳性能(SRP)和段缓存最佳命中率(SCH),分析了20个不同MoE模型。结果表明,在每层都使用MoE且不含共享专家的模型局部路由一致性最高,领域专业化的专家比词汇专业化的专家对一致性贡献更大。研究还发现,缓存大小为激活专家数量2倍时能取得最佳平衡,为MoE模型设计和部署提供了重要指导。
清华大学研究团队开发的"思维增强型策略优化"(TAPO)通过将外部高级思维模式整合到强化学习中,显著提升了大语言模型的推理能力。这种方法从仅500个样本中抽象出思维模板,在AIME、AMC和Minerva Math等基准测试中分别比传统方法提高了99%、41%和17%的性能,同时增强了模型的可解释性、稳定性和泛化能力,为AI推理研究开辟了新方向。