NetApp,在Gartner公布的2019年主存储魔力象限中与Dell EMC、Pure Storage、和HPE等排在第一象限。
只有个问题:NetApp根本不想当存储厂商了,反而是把自己定位为一家混合多云基础设施软件提供商,其核心是Data Fabric架构以及相关服务。
最理想的情况是,这些混合信息是可以相互转换的,而最糟糕的情况是,导致战略上的分裂。那么NetApp是陷入了所谓“创新者的窘境”,还是在保持现状的同时进行转型呢?亦或是有些疯狂的方法需要更密切的关注?
建立在数据框架之上
自2015年上任以来,NetApp首席执行官George Kurian花了数年时间对公司进行转型,现在这项工作还在进行中。
转型的核心是NetApp所谓Data Fabric的多面化产品。Kurian解释说:“为了帮助客户解决混合多云世界的挑战,我们打造了Data Fabric,并在广泛用途中进行了技术创新。”
根据NetApp官网信息显示,Data Fabric是一种体系结构和一系列数据服务,可跨跨越本地和多云环境的各种端点提供一致的功能。
然而可以肯定的是,Data Fabric不是硬件。Kurian说:“我们已经建立并交付Data Fabric战略以实现客户数据中心的简化和现代化,在混合云时代取得成功。”
Keystone新品发布
Data Fabric战略已经推出有好几年时间,并且已经达到一定的成熟度,NetApp现在凭借最新的Keystone产品进一步强化了以混合IT为核心的战略。
Keystone旨在扩展按需付费、动态扩展和操作简便性的核心云实践,并将其扩大到覆盖本地数据中心环境,现在业界将这种企业IT基础设施战略成为“云原生计算”。
云原生计算依赖于对所有环境(包括本地环境、私有云和公有云)的全面抽象,这样抽象应该在所有此类环境中提供通用的用户体验。
共通的用户体验是Keystone的核心优势。Kurian表示:“Keystone是程序、服务和产品的组合,将极大地改变客户使用IT资源的方式,并为他们在任何云和数据中心中提供一致的体验。Keystone简化了混合云数据服务的业务。”
那么硬件呢?
毫无疑问,NetApp Insight大会的参会者重点关注的是硬件。NetApp的装机群体是以存储专业人员为主的这一事实,是NetApp难以摆脱以硬件为中心的原因之一。
NetApp的高管层非常清楚他们面临的这个挑战。NetApp首席转型官Biren Fondekar解释说:“硬件是达到目的的一种手段。Data Fabric是我们战略转型的开始。”
尽管如此,Kurian在主题演讲中引上台的第一个客户——Syracuse大学副首席信息官Eric Sedore——还是强调了NetApp的存储产品。Sedore说:“我们想要一个负担得起的存储平台”,甚至说该大学一直在寻找“便宜”的存储,因为他必须满足行政、教学和研究部门的需求,而这就需要大量的存储。
在选择NetApp之前,Sedore的团队经常不得不将数据从一个存储系统迁移到另一个存储系统,他将此比喻为“TB级数据的俄罗斯方块”,他想解决这个问题。
因此即使在主题演讲过程中,“创新者的窘境”也是明显而真实存在的。一方面,Kurian强调NetApp以混合多云为中心的、云原生计算的长期战略;另一方面,Sedore强调“廉价”的存储可提供超薄的利润。
这在硬件业务方面是很熟悉的,但对存储软件业务来说确实不受欢迎的,因为这会让任何厂商都很难通过混合硬件/软件产品取得市场的成功。
对于NetApp来说,解决方案显然是出售或者分拆部分或者全部硬件业务。
NetApp没有任何人提出即将有这一种举措,考虑到NetApp大多数客户都是采购硬件的,所以如此大规模的战略资产剥离将颠覆NetApp的市场地位,但这一举措的吸引力也是显而易见的。
深入了解NetApp的战略
公有云主要的经济价值是不必购买任何硬件。但是,对于需要私有云的企业组织来说,他们必须以某种方式通过购买、租赁或者包含硬件的第三方托管或者托管服务提供商合作来获取所有必要的设备。
NetApp认为自己的硬件产品可以满足这种需求——帮助具有混合IT环境的客户构建私有云,然后利用NetApp的Data Fabric和Keystone产品,以类似公有云的、完全一致的方式进行管理和保护。
实际上,NetApp可以通过把硬件定位为帮助完善客户私有云的一种方式,让自己的核心存储产品扩展到覆盖基础设施和超融合基础设施(HCI)产品。
很多厂商和客户都混淆了融合的基础设施和超融合基础设施,但是对于NetApp来说,这是两种不同的产品。融合基础设施是将存储整合到服务器中的硬件产品,而超融合基础设施是跨计算、存储和网络的基于软件的抽象。
这一区别也有助于解释NetApp的超融合基础设施定位。NetApp首席技术专家Christopher Merz解释说:“超融合基础设施是在白标[通用]硬件上运行的,是向云原生计算过渡的一项技术。”
换句话说,NetApp很乐于看到客户利用NetApp硬件来运行NetApp的超融合基础设施产品,而且如果客户可以在任何其他硬件上运行NetApp的超融合基础设施也没问题,因为毕竟利润都来自于软件。
此外,计算、存储和网络的抽象化并不限定于任何特定的硬件部署,因为这样的抽象化是整个基础设施云原生计算方法的一个组成部分。
Kubernetes:NetApp云原生战略的基石
NetApp把赌注压在了推动云原生计算普及的开源容器编排平台Kubernetes上。实际上,NetApp拥护开源的Trident项目。
Trident是面向容器的一种动态持久存储编排器。NetApp已经将Trident实施为外部预配器控制器,本身可以作为Kubernetes容器运行,监控卷并自动执行存储预配的过程。
Merz对Trident在Kubernetes生态系统中发挥的作用持乐观态度。他解释说:“ Trident存储编排器将存储变成了一个云原生的持久层。NetApp Data Fabric加上Kubernetes提供了真正的工作负载可移动性。”
展望NetApp的未来
有人猜测NetApp是否会剥离或者卖掉自己的硬件部门。但如果退后一步,看看Kurian对整体战略方向的阐述,在将来的某个时候迈出这一步是很有可能的。
不管NetApp怎么处理自己的硬件产品,以Data Fabric、Keystone、Trident和其他与其云原生、混合多云优先级相匹配的产品推向市场,并且形成了自己具有一致性的战略,而且这个战略与企业IT未来几年的总体方向是保持一致的。
不管是不是领先的存储厂商,对于整个市场来说,现在是时候视NetApp为一家有存储产品支持的现代软件基础设施厂商了,而不是反过来。
好文章,需要你的鼓励
研究人员基于Meta前首席AI科学家Yann LeCun提出的联合嵌入预测架构,开发了名为JETS的自监督时间序列基础模型。该模型能够处理不规则的可穿戴设备数据,通过学习预测缺失数据的含义而非数据本身,成功检测多种疾病。在高血压检测中AUROC达86.8%,心房扑动检测达70.5%。研究显示即使只有15%的参与者有标注医疗记录,该模型仍能有效利用85%的未标注数据进行训练,为利用不完整健康数据提供了新思路。
西湖大学等机构联合发布TwinFlow技术,通过创新的"双轨道"设计实现AI图像生成的革命性突破。该技术让原本需要40-100步的图像生成过程缩短到仅需1步,速度提升100倍且质量几乎无损。TwinFlow采用自我对抗机制,无需额外辅助模型,成功应用于200亿参数超大模型,在GenEval等标准测试中表现卓越,为实时AI图像生成应用开辟了广阔前景。
AI云基础设施提供商Coreweave今年经历了起伏。3月份IPO未达预期,10月收购Core Scientific计划因股东反对而搁浅。CEO Michael Intrator为公司表现辩护,称正在创建云计算新商业模式。面对股价波动和高负债质疑,他表示这是颠覆性创新的必然过程。公司从加密货币挖矿转型为AI基础设施提供商,与微软、OpenAI等巨头合作。对于AI行业循环投资批评,Intrator认为这是应对供需剧变的合作方式。
中山大学等机构联合开发的RealGen框架成功解决了AI生成图像的"塑料感"问题。该技术通过"探测器奖励"机制,让AI在躲避图像检测器识别的过程中学会制作更逼真照片。实验显示,RealGen在逼真度评测中大幅领先现有模型,在与真实照片对比中胜率接近50%,为AI图像生成技术带来重要突破。