中国北京,2019年4月10日 —— Hewlett Packard Enterprise (HPE) 和Nutanix (NTNX)今日宣布,双方将开展全球性合作,为市场提供混合云即服务 (aaS) 一体化解决方案。该方案将利用Nutanix企业云操作系统软件(包括Nutanix的免费内置AHV管理程序),通过HPE GreenLake向客户提供完全由HPE管理的混合云服务,大幅降低客户的总体拥有成本,加快实现价值。
此外,根据协议,Nutanix将推动其渠道合作伙伴直接出售安装Nutanix企业云操作系统软件的HPE服务器,确保客户可以购买到一体化集成设备。
如何推动创新、加快数字化转型是当今企业持续面临的挑战。混合IT领域的传统方案存在很多问题,例如复杂的系统需要配备大量的IT操作人员,软件许可和运行费用日益上升,厂商锁定引发客户担忧等。因此,在一个注重多样性和敏捷性的时代,企业反而在逐渐失去灵活性。
通过此次合作,HPE与Nutanix将推出一种极具吸引力、可降低成本和复杂性的替代方案来解决上述挑战。这一综合性解决方案将提供完全可控的混合云基础设施即服务,部署在客户的数据中心或主机托管设施。
HPE GreenLake和Nutanix企业云操作系统软件的结合为希望利用Nutanix(包括其AHV虚拟化技术)支持各类应用案例的客户提供了最佳选择。
相关应用案例包括关键任务型工作负载和大数据应用程序:SAP、甲骨文、微软等顶级企业的虚拟化工作负载,以及Splunk、Hadoop等虚拟化大数据应用程序的支持等。
HPE GreenLake aaS方案可在以下方面为客户带来益处:
HPE总裁兼首席执行官Antonio Neri表示: “HPE通过HPE GreenLake构建了新型的本地部署消费即服务市场。目前,全球有数百家客户使用HPE GreenLake获得与内部环境的安全、治理和应用性能相结合的云服务,并根据实际使用情况进行付费。目前,HPE正在为寻找敏捷度更高、成本更低的混合云替代方案的客户提供更多选择,以扩大自身在该市场的领导地位。”
Nutanix创始人、首席执行官兼董事会主席Dheeraj Pandey表示: “客户告诉我们,应用程序对他们而言至关重要。此次与HPE的合作将为Nutanix的客户带来更多选择,实现基础架构隐形。这样,客户可以将注意力集中在业务关键型应用程序上,无需关注底层技术。我们很高兴与HPE达成合作,让为自身业务寻找合适的混合云解决方案的企业受益。”
HPE GreenLake是行业领先的本地IT消费即服务解决方案。它支持客户根据工作量或资源使用量的实际计量结果进行付费,可在客户出现容量需求之前迅速完成扩展,并具有企业级管理和支持功能。客户可通过数据中心或主机托管环境体验HPE GreenLake的云服务。
凭借HPE一流的合作模式和不断扩展的合作伙伴生态系统,客户可以利用自己选择的技术设计并轻松使用IT解决方案,通过减少超量配置降低资本支出,提高IT资源的使用效率,推动关键IT项目更快地实现价值。4
今后,Nutanix将推动其渠道合作伙伴直接出售安装Nutanix企业云操作系统软件的HPE服务器,确保客户可以购买到一体化的设备。
两家公司此次合作推出的解决方案将兼具安全性和创新性的ProLiant和Apollo服务器(HPE打造的全球最大的安装基础)与Nutanix首创的企业云操作系统软件相结合,全面实现了一体化。Nutanix的客户可以利用直接由HPE工厂提供的方案实现数据中心环境的现代化,并在其首选的硬件和软件平台上获得支持服务。
搭载Nutanix企业云操作系统软件的HPE GreenLake和在HPE 服务器上安装Nutanix软件的一体化集成设备预计将于2019年第三季度上市。
今年,HPE和Nutanix将在各自的客户大会上展示两家公司合作打造的解决方案。Nutanix的客户大会(Nutanix .NEXT)将于2019年5月7-9日在美国加利福尼亚州阿纳海姆举办。HPE的客户大会(HPE Discover)将于2019年6月17-19日在美国内华达州拉斯维加斯举办。
备注:
好文章,需要你的鼓励
这项研究提出了HoPE(混合位置编码),一种针对视觉语言模型的新型位置编码技术,专门解决长视频理解的挑战。传统位置编码技术在处理长视频时表现不佳,HoPE通过两个创新解决了这一问题:混合频率分配策略(为空间信息分配高频,时间维度使用零频率)和动态时间缩放机制(根据视频速度灵活调整时间编码)。实验证明,HoPE在长视频理解和检索任务上分别提升了8.35%和22.23%,为AI更准确理解长视频内容开辟了新途径。
东京大学研究团队推出MangaVQA基准和MangaLMM模型,专门用于评估和提升AI对日本漫画的理解能力。MangaVQA由526个高质量手动创建的问答对组成,用于评估AI系统对漫画内容的深入理解;MangaOCR则专注于漫画页内文本识别。基于这两个基准,研究团队从开源多模态模型Qwen2.5-VL微调出MangaLMM,能同时处理文本识别和内容理解任务。实验显示,即使是GPT-4o等顶尖商业模型在处理漫画的独特复杂性时也面临挑战,而专门训练的MangaLMM表现出色。
这项研究由ISTA和谷歌研究院联合开发的"影响力蒸馏"方法,通过利用二阶信息为训练样本分配最优权重,实现了大语言模型训练数据的高效选择。该方法在数学上有坚实理论支持,并创新性地引入"地标"近似技术,仅需计算少量样本的精确影响力,再高效传播到其他样本,大幅降低计算成本。实验证明,该方法在多种模型和任务上均优于或匹配现有技术,同时实现了高达3.5倍的速度提升,为大模型训练开辟了更高效的路径。
来自哈佛大学等顶尖学府的研究团队在这篇论文中挑战了传统观念,认为Token压缩不仅仅是提高AI模型运行效率的工具,更应成为生成式AI模型设计的核心原则。研究表明,精心设计的Token压缩策略可以促进多模态深度整合、减轻AI"幻觉"问题、增强处理长序列输入的能力,并提高训练稳定性。论文详细分析了现有方法的局限性,并提出了算法创新、强化学习指导和硬件协同设计等未来研究方向。