NetApp,在Gartner公布的2019年主存储魔力象限中与Dell EMC、Pure Storage、和HPE等排在第一象限。
只有个问题:NetApp根本不想当存储厂商了,反而是把自己定位为一家混合多云基础设施软件提供商,其核心是Data Fabric架构以及相关服务。
最理想的情况是,这些混合信息是可以相互转换的,而最糟糕的情况是,导致战略上的分裂。那么NetApp是陷入了所谓“创新者的窘境”,还是在保持现状的同时进行转型呢?亦或是有些疯狂的方法需要更密切的关注?
建立在数据框架之上
自2015年上任以来,NetApp首席执行官George Kurian花了数年时间对公司进行转型,现在这项工作还在进行中。
转型的核心是NetApp所谓Data Fabric的多面化产品。Kurian解释说:“为了帮助客户解决混合多云世界的挑战,我们打造了Data Fabric,并在广泛用途中进行了技术创新。”
根据NetApp官网信息显示,Data Fabric是一种体系结构和一系列数据服务,可跨跨越本地和多云环境的各种端点提供一致的功能。
然而可以肯定的是,Data Fabric不是硬件。Kurian说:“我们已经建立并交付Data Fabric战略以实现客户数据中心的简化和现代化,在混合云时代取得成功。”
Keystone新品发布
Data Fabric战略已经推出有好几年时间,并且已经达到一定的成熟度,NetApp现在凭借最新的Keystone产品进一步强化了以混合IT为核心的战略。
Keystone旨在扩展按需付费、动态扩展和操作简便性的核心云实践,并将其扩大到覆盖本地数据中心环境,现在业界将这种企业IT基础设施战略成为“云原生计算”。
云原生计算依赖于对所有环境(包括本地环境、私有云和公有云)的全面抽象,这样抽象应该在所有此类环境中提供通用的用户体验。
共通的用户体验是Keystone的核心优势。Kurian表示:“Keystone是程序、服务和产品的组合,将极大地改变客户使用IT资源的方式,并为他们在任何云和数据中心中提供一致的体验。Keystone简化了混合云数据服务的业务。”
那么硬件呢?
毫无疑问,NetApp Insight大会的参会者重点关注的是硬件。NetApp的装机群体是以存储专业人员为主的这一事实,是NetApp难以摆脱以硬件为中心的原因之一。
NetApp的高管层非常清楚他们面临的这个挑战。NetApp首席转型官Biren Fondekar解释说:“硬件是达到目的的一种手段。Data Fabric是我们战略转型的开始。”
尽管如此,Kurian在主题演讲中引上台的第一个客户——Syracuse大学副首席信息官Eric Sedore——还是强调了NetApp的存储产品。Sedore说:“我们想要一个负担得起的存储平台”,甚至说该大学一直在寻找“便宜”的存储,因为他必须满足行政、教学和研究部门的需求,而这就需要大量的存储。
在选择NetApp之前,Sedore的团队经常不得不将数据从一个存储系统迁移到另一个存储系统,他将此比喻为“TB级数据的俄罗斯方块”,他想解决这个问题。
因此即使在主题演讲过程中,“创新者的窘境”也是明显而真实存在的。一方面,Kurian强调NetApp以混合多云为中心的、云原生计算的长期战略;另一方面,Sedore强调“廉价”的存储可提供超薄的利润。
这在硬件业务方面是很熟悉的,但对存储软件业务来说确实不受欢迎的,因为这会让任何厂商都很难通过混合硬件/软件产品取得市场的成功。
对于NetApp来说,解决方案显然是出售或者分拆部分或者全部硬件业务。
NetApp没有任何人提出即将有这一种举措,考虑到NetApp大多数客户都是采购硬件的,所以如此大规模的战略资产剥离将颠覆NetApp的市场地位,但这一举措的吸引力也是显而易见的。
深入了解NetApp的战略
公有云主要的经济价值是不必购买任何硬件。但是,对于需要私有云的企业组织来说,他们必须以某种方式通过购买、租赁或者包含硬件的第三方托管或者托管服务提供商合作来获取所有必要的设备。
NetApp认为自己的硬件产品可以满足这种需求——帮助具有混合IT环境的客户构建私有云,然后利用NetApp的Data Fabric和Keystone产品,以类似公有云的、完全一致的方式进行管理和保护。
实际上,NetApp可以通过把硬件定位为帮助完善客户私有云的一种方式,让自己的核心存储产品扩展到覆盖基础设施和超融合基础设施(HCI)产品。
很多厂商和客户都混淆了融合的基础设施和超融合基础设施,但是对于NetApp来说,这是两种不同的产品。融合基础设施是将存储整合到服务器中的硬件产品,而超融合基础设施是跨计算、存储和网络的基于软件的抽象。
这一区别也有助于解释NetApp的超融合基础设施定位。NetApp首席技术专家Christopher Merz解释说:“超融合基础设施是在白标[通用]硬件上运行的,是向云原生计算过渡的一项技术。”
换句话说,NetApp很乐于看到客户利用NetApp硬件来运行NetApp的超融合基础设施产品,而且如果客户可以在任何其他硬件上运行NetApp的超融合基础设施也没问题,因为毕竟利润都来自于软件。
此外,计算、存储和网络的抽象化并不限定于任何特定的硬件部署,因为这样的抽象化是整个基础设施云原生计算方法的一个组成部分。
Kubernetes:NetApp云原生战略的基石
NetApp把赌注压在了推动云原生计算普及的开源容器编排平台Kubernetes上。实际上,NetApp拥护开源的Trident项目。
Trident是面向容器的一种动态持久存储编排器。NetApp已经将Trident实施为外部预配器控制器,本身可以作为Kubernetes容器运行,监控卷并自动执行存储预配的过程。
Merz对Trident在Kubernetes生态系统中发挥的作用持乐观态度。他解释说:“ Trident存储编排器将存储变成了一个云原生的持久层。NetApp Data Fabric加上Kubernetes提供了真正的工作负载可移动性。”
展望NetApp的未来
有人猜测NetApp是否会剥离或者卖掉自己的硬件部门。但如果退后一步,看看Kurian对整体战略方向的阐述,在将来的某个时候迈出这一步是很有可能的。
不管NetApp怎么处理自己的硬件产品,以Data Fabric、Keystone、Trident和其他与其云原生、混合多云优先级相匹配的产品推向市场,并且形成了自己具有一致性的战略,而且这个战略与企业IT未来几年的总体方向是保持一致的。
不管是不是领先的存储厂商,对于整个市场来说,现在是时候视NetApp为一家有存储产品支持的现代软件基础设施厂商了,而不是反过来。
好文章,需要你的鼓励
谷歌发布新的AI学术搜索工具Scholar Labs,旨在回答详细研究问题。该工具使用AI识别查询中的主要话题和关系,目前仅对部分登录用户开放。与传统学术搜索不同,Scholar Labs不依赖引用次数或期刊影响因子等传统指标来筛选研究质量,而是通过分析文档全文、发表位置、作者信息及引用频次来排序。科学界对这种忽略传统质量评估方式的新方法持谨慎态度,认为研究者仍需保持对文献质量的最终判断权。
Meta公司FAIR实验室与UCLA合作开发了名为HoneyBee的超大规模视觉推理数据集,包含250万训练样本。研究揭示了构建高质量AI视觉推理训练数据的系统方法,发现数据质量比数量更重要,最佳数据源比最差数据源性能提升11.4%。关键创新包括"图片说明书"技术和文字-图片混合训练法,分别提升3.3%和7.5%准确率。HoneyBee训练的AI在多项测试中显著超越同规模模型,同时降低73%推理成本。
Meta发布第三代SAM(分割一切模型)系列AI模型,专注于视觉智能而非语言处理。该模型擅长物体检测,能够精确识别图像和视频中的特定对象。SAM 3在海量图像视频数据集上训练,可通过点击或文本描述准确标识目标物体。Meta将其应用于Instagram编辑工具和Facebook市场功能改进。在野生动物保护方面,SAM 3与保护组织合作分析超万台摄像头捕获的动物视频,成功识别百余种物种,为生态研究提供重要技术支持。
上海AI实验室团队提出ViCO训练策略,让多模态大语言模型能够根据图像语义复杂度智能分配计算资源。通过两阶段训练和视觉路由器,该方法在压缩50%视觉词汇的同时保持99.6%性能,推理速度提升近一倍,为AI效率优化提供了新思路。