本周,已经有多家供应商开始将NVMe与其它云、软件以及超融合发展趋势相提并论。但在本文中,我们首先为大家带来几条新消息。
Blocks and Files报道称,Komprise公司的文件生命周期管理客户如今迎来更多冷门数据存储选项。
富士通-NetApp融合型NFLEX系统(目前仅在欧洲、中东以及非洲市场销售)获得SAP商务套件认证,已经成为面向S/4HANA以及BW/4HANA部署方案的认证产品。
初创企业Burlywood公司在其自主开发的闪存控制器软件包当中添加了NVMe支持能力。
Veeam公司告别其联合CEO Peter McKay,原因是这位掌门人无法为其一系列新举措提供合理的依据。由此空出的CEO与COO岗位也立即开始物色新人选。
NVMe-over-Fabrics阵列软件初创厂商Excelero公司将跨越TCP与光纤通道的NVMe运行能力引入其NVMe软件当中,旨在为现有iSCSI以及FC SAN用户提供面向NVMe-oF的迁移路由选项。
接下来是NVMe的“三杀”新闻:富士通公司表示其接下来将要推出的ETERNUS存储阵列将同时支持NVMe驱动器以及NVMe-oF访问机制。
此外,为了向英国学术界展示NVMe-oF阵列的连接优势,伦敦玛丽皇后大学公布了一款高性能DDN GridScaler阵列以及一款性能更为强劲的Excelero NVMe-oF D24全闪存阵列——后者性能表现之强,甚至令GrdScaler直接“沦为”高容量选项。
本周晚些时候,我们了解到由David Scott牵头的四位前任3PAR/HPE存储高管将重返初创企业Nebulon公司。该公司专注于面向混合IT的云定义存储业务。这家初创企业仍处于早期发展阶段,且目前正在招聘基础工程师职位,因此我们对其发展进度无疑有必要保持耐心。
这家企业表示还有很多工作要做,具体包括整理超融合基础设施供应商报告以及面向公有云的数据调回等。
好文章,需要你的鼓励
CoreWeave发布AI对象存储服务,采用本地对象传输加速器(LOTA)技术,可在全球范围内高速传输对象数据,无出口费用或请求交易分层费用。该技术通过智能代理在每个GPU节点上加速数据传输,提供高达每GPU 7 GBps的吞吐量,可扩展至数十万个GPU。服务采用三层自动定价模式,为客户的AI工作负载降低超过75%的存储成本。
Amazon研究团队开发出CompLLM压缩技术,能让AI处理长文档的速度提升4倍,内存消耗减半。该技术将长文档分段压缩成"概念嵌入",实现线性复杂度处理,解决了传统AI在处理超长文本时的计算瓶颈。实验显示在处理超长文档时性能优于传统方法,压缩结果可重复使用,为AI应用的效率优化提供了新方案。
谷歌DeepMind与核聚变初创公司CFS合作,运用先进AI模型帮助管理和改进即将发布的Sparc反应堆。DeepMind开发了名为Torax的专用软件来模拟等离子体,结合强化学习等AI技术寻找最佳核聚变控制方式。核聚变被视为清洁能源的圣杯,可提供几乎无限的零碳排放能源。谷歌已投资CFS并承诺购买其200兆瓦电力。
延世大学研究团队开发了BESPOKE评估基准,通过收集30位用户三周内2870个真实会话数据,从需求对齐、内容深度、语调和解释方式四个维度评估AI助手个性化能力。研究发现当前主流AI系统个性化表现普遍不足,平均得分仅60多分,但通过智能利用用户历史信息可显著改善效果,为开发更贴心的个性化AI助手提供了科学评估工具。