数据存储厂商NetApp今天宣布推出Project Astra,一个针对Kubernetes的企业级存储和数据服务平台,可实现应用和数据的可移植性。
Kubernetes是一个开放源代码项目,用于协调大型软件容器集群,这些容器承载了可在任何类型计算基础设施上运行的现代应用组件。过去几年中,Kubernetes技术得到了迅速的普及,但是NetApp认为,用户缺乏确保应用数据和应用本身一样可移植性所需的基础设施。
NetApp表示,要满足CIO期望的标准,IT团队和站点可靠性工程师需要找到一种方法,通过企业级云存储和数据服务处理无状态的和有状态的云原生应用数据。
NetApp试图解决的问题就是困扰软件容器的问题。Moor Insights&Strategy分析师Steve McDowell认为,问题在于目前永久性数据对于这些运行在容器中的工作负载来说并不重要。但如今,有越来越多的应用被部署到容器化环境中,这些环境确实需要永久存储数据,还必须符合企业可管理性的规则。
McDowell说:“大多数存储厂商通过编写符合CSI规范的驱动程序来满足这些需求,CSI规范定义了容器的存储接口,让我们能够智能地将存储连接到容器,但实际上只能使我们成为其中的一部分。另一个更大的问题是数据管理。毕竟,容器数据是企业数据,而且也应该被视为企业数据,这正是NetApp Astra Project针对的目标。”
NetApp推出Project Astra的目的是为Kubernetes应用及其数据实现真正的、全面的可移植性。NetApp补充说,这一愿景是让企业能够在任何云上无缝地使用他们所选择的Kubernetes分发版本。
McDowell表示,NetApp的有利条件在于,它是容器数据管理的早期支持者之一。NetApp在2018年收购了StackPoint,将其转化为NetApp Kubernetes服务。但是,这项服务很大程度上未能引起人们的关注,因此NetApp最终淘汰了这项服务,为Astra项目腾出了空间。
Project Astra项目基于NetApp的公有云托管存储技术,通过数据服务与应用的“Kubernetes原生”集成得到增强。该平台仍在开发中,最终目标是让用户能够通过自己选择的Kubernetes设置来发现新的应用,无论是在本地环境还是在云中托管的。
McDowell说:“Kubernetes领域缺乏数据管理,而Astra是NetApp参与并发挥领导力的一个机会。NetApp拥有专业技能和知识产权,可以做出贡献,是一个很好的策略。如何利用NKS开展业务可能还不明朗,但是NetApp很了解Kubernetes。采用开源的、以合作伙伴为中心的方法,有助于在这个领域站稳脚。”
但是McDowell也强调说,NetApp尚未宣布Project Astra任何实际的产品,该项目目前更多的是为Kubernetes社区提供数据服务而进行的初步尝试,但这对于NetApp来说并不容易,目前NetApp尚未公司任何一家合作伙伴,而只是说,正在与“Kubernetes社区”展开合作。
McDowell说:“除了极少数情况下,企业实际上会开源一个已经在开发中的项目,仅有单一合作伙伴的开源项目是很少见的。我们还需要密切关注,看看NetApp是如何在开源世界中被认可的。”
NetApp高级副总裁、云数据服务业务总经理Anthony Lye表示:“我们做出了果断而长期的承诺,要解决Kubernetes及其社区和平台所面临的数据挑战。Project Astra将提供一个软件定义的架构和工具集,可以接入任何Kubernetes发行版本和管理环境中。”
NetApp表示,Project Astra目前提供了技术预览,正在邀请感兴趣的开发者注册使用。
好文章,需要你的鼓励
DeepResearchGym是一个创新的开源评估框架,专为深度研究系统设计,旨在解决当前依赖商业搜索API带来的透明度和可重复性挑战。该系统由卡内基梅隆大学研究团队开发,结合了基于ClueWeb22和FineWeb大型网络语料库的可重复搜索API与严格的评估协议。实验表明,使用DeepResearchGym的系统性能与使用商业API相当,且在评估指标间保持一致性。人类评估进一步证实了自动评估协议与人类偏好的一致性,验证了该框架评估深度研究系统的有效性。
这项研究介绍了FinTagging,首个面向大型语言模型的全面财务信息提取与结构化基准测试。不同于传统方法,它将XBRL标记分解为数值识别和概念链接两个子任务,能同时处理文本和表格数据。在零样本测试中,DeepSeek-V3和GPT-4o表现最佳,但在细粒度概念对齐方面仍面临挑战,揭示了当前大语言模型在自动化XBRL标记领域的局限性,为金融AI发展提供了新方向。
这项研究介绍了SweEval,一个新型基准测试,用于评估大型语言模型在企业环境中处理脏话的能力。研究团队从Oracle AI等多家机构的专家创建了一个包含八种语言的测试集,模拟不同语调和上下文的真实场景。实验结果显示,LLM在英语中较少使用脏话,但在印地语等低资源语言中更易受影响。研究还发现较大模型通常表现更好,且多语言模型如Llama系列在处理不当提示方面优于其他模型。这项工作对企业采用AI技术时的安全考量提供了重要参考。
这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。