Nutanix的一位高管表示,思科、HPE和VMware的超融合产品无法提供最佳体验,因为他们并没有他们自己的完整软件堆栈。
“每个厂商和他们的追随者现在都在这个领域了,”Nutanix首席产品及开发官Sunil Potti表示。“但是除非你拥有最完整的堆栈,否则你无法提供完整的体验。”
在本周一决定的Raymond James Technology Investors Conference投资人大会上,Potti向参会者表示,直到18个月钱,这个市场的大多数人都认为超融合基础设施——在服务器硬件上融合了计算、存储、网络和虚拟化——会是一个很好的产品,但是质疑它是否可以支持所有用例。
但是随着最终用户更加坚定地为他们的新工作负载部署超融合架构,Potti称以前这个领域是小型IT厂商的专属领域,现在吸引来了一些IT巨头。
Potti说,虽然一些大厂商大力投入这个市场,但其中一些厂商似乎并没有抓住提供完全无缝的功能的重要性。思科、HPE和VMware并没有对这一观点做出立即回应。
“其中一些厂商是很强大的,但也有一些还是沉睡的巨人,因为他们正在过时,”Potti表示。“你不能就是拿着一部诺基亚手机,用着Windows,就说自己赢得了智能手机大战,这就是为什么不奏效的原因。”
Potti用思科超融合产品举例,他说思科与VMware相竞争,但是也依赖于VMware的功能。
“没有人有他们自己的虚拟化体验,”Potti说。“当你选择Amazon的时候,你不能为Amazon采购VMware,这是内置的。”
Potti说,相比之下,Nutanix现在已经不仅仅是四年前的那个存储技术公司了,当时他们刚刚开始构建自己的虚拟机管理程序和虚拟化工具。Potti说,Nutanix重新考虑了他们如何从零开始构建软件堆栈。
Potti说:“Nutanix是一个平台厂商,而不是一个产品的厂商……如果你提供不了完整的堆栈,你就无法提供类似Amazon的体验。”
Nutanix的主要目标是在数据中心提供类似AWS的体验,Potti说,Nutanix并不是试图复制思科和VMware带入市场的超融合产品。
过去5或6年中,AWS和其他公有云服务不断崛起,这对Nutanix是非常有利的,因为很对最终用户已经经过部门斗争并且已经习惯于在整个公司上下采用这种一键点击式的服务,Potti说。
“这已经建立起了对这种架构的认知度,我们正在努力为全球企业提供类似Amazon的体验。”
好文章,需要你的鼓励
新加坡国立大学研究人员开发出名为AiSee的可穿戴辅助设备,利用Meta的Llama模型帮助视障人士"看见"周围世界。该设备采用耳机形态,配备摄像头作为AI伴侣处理视觉信息。通过集成大语言模型,设备从简单物体识别升级为对话助手,用户可进行追问。设备运行代理AI框架,使用量化技术将Llama模型压缩至10-30亿参数在安卓设备上高效运行,支持离线处理敏感文档,保护用户隐私。
阿里达摩院联合浙江大学推出VideoRefer套件,这是首个能够精确理解视频中特定物体的AI系统。该系统不仅能识别整体场景,更能针对用户指定的任何物体进行详细分析和跨时间追踪。研究团队构建了包含70万样本的高质量数据集VideoRefer-700K,并设计了全面的评估体系VideoRefer-Bench。实验显示该技术在专业视频理解任务中显著超越现有方法,在安防监控、自动驾驶、视频编辑等领域具有广阔应用前景。
OpenAI推出新AI模型GPT-5-Codex,能够在无用户协助下完成数小时的编程任务。该模型是GPT-5的改进版本,使用额外编码数据训练。测试显示,GPT-5-Codex可独立工作超过7小时,能自动发现并修复编码错误。在重构基准测试中得分51.3%,比GPT高出17%以上。模型可根据任务难度调整处理时间,简单请求处理速度显著提升。目前已在ChatGPT付费计划中提供。
Sa2VA是由UC默塞德等高校联合开发的突破性AI系统,首次实现图像视频的统一理解与精确分割。通过巧妙融合SAM-2视频分割技术和LLaVA多模态对话能力,Sa2VA能够同时进行自然对话和像素级物体标注。研究团队还构建了包含7万多个复杂视频表达式的Ref-SAV数据集,显著提升了AI在长文本描述和复杂场景下的表现。实验显示,Sa2VA在多个基准测试中达到业界领先水平,为视频编辑、医疗诊断、智能监控等领域带来新的应用可能性。