数据存储厂商NetApp今天宣布推出Project Astra,一个针对Kubernetes的企业级存储和数据服务平台,可实现应用和数据的可移植性。
Kubernetes是一个开放源代码项目,用于协调大型软件容器集群,这些容器承载了可在任何类型计算基础设施上运行的现代应用组件。过去几年中,Kubernetes技术得到了迅速的普及,但是NetApp认为,用户缺乏确保应用数据和应用本身一样可移植性所需的基础设施。
NetApp表示,要满足CIO期望的标准,IT团队和站点可靠性工程师需要找到一种方法,通过企业级云存储和数据服务处理无状态的和有状态的云原生应用数据。
NetApp试图解决的问题就是困扰软件容器的问题。Moor Insights&Strategy分析师Steve McDowell认为,问题在于目前永久性数据对于这些运行在容器中的工作负载来说并不重要。但如今,有越来越多的应用被部署到容器化环境中,这些环境确实需要永久存储数据,还必须符合企业可管理性的规则。
McDowell说:“大多数存储厂商通过编写符合CSI规范的驱动程序来满足这些需求,CSI规范定义了容器的存储接口,让我们能够智能地将存储连接到容器,但实际上只能使我们成为其中的一部分。另一个更大的问题是数据管理。毕竟,容器数据是企业数据,而且也应该被视为企业数据,这正是NetApp Astra Project针对的目标。”
NetApp推出Project Astra的目的是为Kubernetes应用及其数据实现真正的、全面的可移植性。NetApp补充说,这一愿景是让企业能够在任何云上无缝地使用他们所选择的Kubernetes分发版本。
McDowell表示,NetApp的有利条件在于,它是容器数据管理的早期支持者之一。NetApp在2018年收购了StackPoint,将其转化为NetApp Kubernetes服务。但是,这项服务很大程度上未能引起人们的关注,因此NetApp最终淘汰了这项服务,为Astra项目腾出了空间。
Project Astra项目基于NetApp的公有云托管存储技术,通过数据服务与应用的“Kubernetes原生”集成得到增强。该平台仍在开发中,最终目标是让用户能够通过自己选择的Kubernetes设置来发现新的应用,无论是在本地环境还是在云中托管的。
McDowell说:“Kubernetes领域缺乏数据管理,而Astra是NetApp参与并发挥领导力的一个机会。NetApp拥有专业技能和知识产权,可以做出贡献,是一个很好的策略。如何利用NKS开展业务可能还不明朗,但是NetApp很了解Kubernetes。采用开源的、以合作伙伴为中心的方法,有助于在这个领域站稳脚。”
但是McDowell也强调说,NetApp尚未宣布Project Astra任何实际的产品,该项目目前更多的是为Kubernetes社区提供数据服务而进行的初步尝试,但这对于NetApp来说并不容易,目前NetApp尚未公司任何一家合作伙伴,而只是说,正在与“Kubernetes社区”展开合作。
McDowell说:“除了极少数情况下,企业实际上会开源一个已经在开发中的项目,仅有单一合作伙伴的开源项目是很少见的。我们还需要密切关注,看看NetApp是如何在开源世界中被认可的。”
NetApp高级副总裁、云数据服务业务总经理Anthony Lye表示:“我们做出了果断而长期的承诺,要解决Kubernetes及其社区和平台所面临的数据挑战。Project Astra将提供一个软件定义的架构和工具集,可以接入任何Kubernetes发行版本和管理环境中。”
NetApp表示,Project Astra目前提供了技术预览,正在邀请感兴趣的开发者注册使用。
好文章,需要你的鼓励
随着AI广泛应用推动数据中心建设热潮,运营商面临可持续发展挑战。2024年底美国已建成或批准1240个数据中心,能耗激增引发争议。除能源问题外,服务器和GPU更新换代产生的电子废物同样严重。通过采用模块化可修复系统、AI驱动资产跟踪、标准化数据清理技术以及与认证ITAD合作伙伴合作,数据中心可实现循环经济模式,在确保数据安全的同时减少环境影响。
剑桥大学研究团队首次系统探索AI在多轮对话中的信心判断问题。研究发现当前AI系统在评估自己答案可靠性方面存在严重缺陷,容易被对话长度而非信息质量误导。团队提出P(SUFFICIENT)等新方法,但整体问题仍待解决。该研究为AI在医疗、法律等关键领域的安全应用提供重要指导,强调了开发更可信AI系统的紧迫性。
超大规模云数据中心是数字经济的支柱,2026年将继续保持核心地位。AWS、微软、谷歌、Meta、甲骨文和阿里巴巴等主要运营商正积极扩张以满足AI和云服务需求激增,预计2026年资本支出将超过6000亿美元。然而增长受到电力供应、设备交付和当地阻力制约。截至2025年末,全球运营中的超大规模数据中心达1297个,总容量预计在12个季度内翻倍。
威斯康星大学研究团队开发出Prithvi-CAFE洪水监测系统,通过"双视觉协作"机制解决了AI地理基础模型在洪水识别上的局限性。该系统巧妙融合全局理解和局部细节能力,在国际标准数据集上创造最佳成绩,参数效率提升93%,为全球洪水预警和防灾减灾提供了更准确可靠的技术方案。