IBM本周二扩大了自己的全闪存存储产品线,增加了一款瞄准大数据和其他非结构化数据应用的产品。

"新推出的IBM DeepFlash 150计划从本周晚些时候开始出货,针对那些要求标准全闪存存储解决方案不具备的容量的应用。"IBM存储系统、文件和对象存储产品总监Alex Chen表示。
大多数全闪存存储阵列专注于更为传统的应用,例如VDI虚拟桌面、块存储和在线交易处理等。
分析师告诉我们,有80%的数据都是非结构化的,大数据对于闪存存储来说是一个不同的问题。自有了大数据,数据就迈向了PB级,而不是TB级。非结构化数据的增速是结构化数据的两倍。因此可扩展性是一个很重要的因素。
"大数据和其他非结构化数据也要求低成本的存储,很多非结构化数据例如视频已经被压缩,所以很难指望通过精简数据来节省空间。" Alex Chen表示。
因此,IBM DeepFlash 150采用了与IBM现有基于FlashCore的全闪存阵列不同的架构。
IBM表示,新产品的价格大约是每GB 1美元,很多厂商包括IBM都已经拥有在这个价位上的全闪存解决方案。但是其他包括IBM的解决方案,支持压缩和重复数据删除功能,都无法应对非结构化数据。
IBM DeepFlash 150是3U机架,每个都可以配置128TB到512TB的容量。结合IBM Spectrum Scale软件(用于文件、对象和集成的数据分析),IBM DeepFlash 150可以扩展到数EB的容量,Chen表示。
将两者结合为一套完整的解决方案,这将帮助客户和渠道合作伙伴支持像内存分析、媒体和娱乐、实时分析、高性能计算、生命科学和基因组学这样的工作负载,Alex Chen说。
Re-Store是一家位于加州圣马科斯的解决方案提供商、IBM长期业务合作伙伴,该公司总裁、基础设施架构师Michael Sedlmayer表示,这样一套包含有Spectrum Scale的解决方案让他对IBM DeepFlash 150很感兴趣。
要想对大数据和其他非结构化数据使用全闪存存储,就必须有足够的容量应对整个工作负载,并且能够在完成之后把数据迁移到别处,Sedlmayer说。
"这方面的一大障碍一直是闪存存储的高成本,如果一个工作集要求100TB容量,但是客户只能负担得起10TB,那就很难处理这个工作负载。有了DeepFlash 150,客户就有能力利用闪存来处理他们的工作负载。"
Sycomp是一家位于加州福斯特城的解决方案提供商、IBM长期业务合作伙伴,该公司全球系统解决方案高管John Zawistowski表示,DeepFlash 150填补了IBM闪存存储产品线一个巨大的空白。
"IBM闪存存储是市场中速度最快的,"Zawistowski说。"但是在那些不需要最快的存储的中端市场有所缺失。但是结合了Spectrum Scale,DeepFlash 150就获得了高级的功能特性。"
客户并不总是需要IBM FlashCore存储那样的性能,Zawistowski说。"价格是与性能相关的,"他说。
Chen预计IBM的渠道合作伙伴会在DeepFlash 150的销售中占大约80%的份额,特别是那些Spectrum Scale的合作伙伴。
"今年,我们预计有很大一部分的DeepFlash 150客户将会把Spectrum Scale连接到需要提升性能的旧型号存储系统上,"他说。"这是一开始最容易的采用方式。但是随着时间的推移,我们将看到有更多的案例,客户采用其他文件系统"
好文章,需要你的鼓励
科技泡沫并非世界末日,从经济角度看,泡沫是押注过大导致供过于求。AI泡沫问题复杂在于AI软件开发节奏与数据中心建设周期的时间错配。甲骨文关联数据中心获180亿美元信贷,Meta承诺三年内投入6000亿美元基础设施。麦肯锡调查显示企业虽广泛使用AI但规模有限,多数仍持观望态度。微软CEO表示更担心数据中心空间不足而非芯片短缺,电力需求成为新瓶颈。
香港中文大学研究团队开发的Search-R3系统成功解决了大语言模型推理与搜索分离的问题,通过两阶段训练让AI在深度思考过程中直接生成搜索向量。该系统在多个领域测试中显著超越现有方法,特别是启用推理后性能提升明显,为AI系统设计提供了推理与搜索统一的新范式,展现了从专门化向通用化发展的重要方向。
Goodfire.ai研究人员首次发现AI语言模型中记忆和推理功能通过完全独立的神经通路运作。研究显示,移除记忆通路后,模型丧失97%的训练数据复述能力,但逻辑推理能力几乎完全保留。令人意外的是,算术运算与记忆共享神经通路而非推理通路,这可能解释了AI模型在数学方面的困难。该技术未来有望用于移除版权内容或敏感信息而不损害模型核心功能。
这项由ETH苏黎世等机构发表的突破性研究首次系统性揭示了优化器选择对AI模型量化性能的重大影响。研究团队发现传统的异常值理论完全失效,并开发了革命性的ABC分解框架来准确预测量化后性能。实验证明Shampoo优化器在量化场景下表现最优,该发现为AI模型的实际部署提供了重要指导,有望让AI技术在资源受限设备上发挥更大作用。