提到Nutanix,我们首先想到了是超融合,没错,作为超融合领域的引领者,Nutanix在近几年的发展中,可谓是大放异彩,并于2016年成功上市。可以毫不夸张的说,在超融合领域中,Nutanix是行业先驱者+颠覆者。不过,在未来Nutanix可不单单是超融合的标签了。
众所周知,其实超融合基础设施并不是最新的数据中心技术,但它可以说是业内最火热的技术之一,随着市场的不断洗牌,目前国内市场中也逐渐形成了以Nutanix为首的超融合市场。
在近期的媒体沟通会上,作为Nutanix中国区董事总经理,陈满恒对当下Nutanix的发展信心满满,并提到了2018财年第一季度收入,他表示:"在第一季度中,我们的全球经济增长向好,全球收入高达2.76亿美元,同期增长46%,而中国市场的增长速度远比全球增长还要快"。

可以看出,Nutanix在其领域中取得不错的成绩,而陈满恒却告诉我们,超融合只是一个必要条件,就如虚拟化是云的一个必要条件一样,接下来,Nutanix将有一个重大转型,即正式提出Software Choice(纯软件选项)概念,向软件层面转型,以此来配合用户自己选择硬件平台,提升用户体验。
转型路途 Nutanix如何靠云吸引用户?
我们知道,近几年,超融合基础架构的发展已经驶入快车道,已经在市场广泛接受。无论是从医疗、金融、教育、制造、零售等传统行业到如今的互联网行业等,越来越多的行业开始积极拥有超融合,面对生机勃勃的超融合市场,Nutanix在稳固超融合市场市场地位后,逐步开始向企业云转型。那么,在转型过程中,Nutanix将靠着怎样的核心优势吸引用户再次选择?
对此,陈满恒表示:"随着云服务的逐渐深入,用户在未来不仅仅需要一个云服务,私有云或者混合云的多云战略将会是用户很重要的一个方向。因此,在2018年我们将会推出XI的云服务,将来无论是公有云亦或是私有云,Nutanix希望可以把用户体验的差距拉到同等,通过整体部署管理,按照自己的业务需求来来选择不同的云服务。"
Nutanix 中国区技术总监夏峰补充道:"基于如今数据中心的模式,Nutanix不忘初心,从技术上解决应用的根本问题,即可以运行在阿里、AWS,也可以运行在数据中心我们或其它任意虚拟化平台。用户可以把Nutanix看作一个接口、产品或硬件资源去管理。"
显然,对于超融合,Nutanix有着自己的理解与定位,而对于云服务,Nutanix更是与其它厂商不同,强调的是为用户提供多种灵活的选项。可以说,在数字化转型的大趋势下,各大IT企业都在考虑其业务模式和生产方式,我们目前面临的IT时代,计算无处不在,云更是呈现出全新的分布状态。在这个过程中,其实Nutanix的想法是从企业的核心到分布式,用超融合的手段把云的体验带给用户。
Nutanix=超融合的概念或将被改变
正如正文开头中所说,提到Nutanix,大家首先想到的是超融合,毕竟在这个领域,Nutanix的标签是根深蒂固的,也是凭借其成为推动者。而如今面对多云的数字化转型时代,Nutanix的转云之路也希望是循序渐进的,并且超融合也是提供云解决方案中的一部分。"我们从来都是一家软件公司,在未来的各种活动中,我们也会通过不同渠道分享企业的战略定位。事实上,随着行业技术的不断迭代,企业自身功能的增强也促使这个行业在转型,从超融合到企业云,Nutanix依旧会提高应用的运行效率及性能,给客户更多的选择性。"陈满恒提到。
在超融合领域中,Nutanix交出了一份骄傲的答卷,而在未来的旅途中,Nutanix企业云的发展令人期待!
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。