Hitachi Vantara 推出了 VSP 360,这是其 VSP One 存储产品组合的新一代管理控制平面,以服务形式交付,覆盖本地、公共云及混合部署环境。
VSP One (Virtual Storage Platform One) 是一个存储产品组合,包括本地部署的 VSP One SDS Block、VSP One Block appliance、VSP One File 以及 — 一个低成本全闪存阵列和对象存储 — VSP One Object 产品,还有面向 AWS 云的 VSP One SDS Cloud(云原生 SVOS)。这些产品之前通过 Hitachi V 的 Ops Center 进行管理,该 Ops Center 在 2023 年被描述为公司在 VSP One 平台上进行基础设施数据管理的主要品牌。如今,它已进化成 VSP 360,为 VSP One 混合云部署、 AIOps 预测洞察以及简化且符合规范的数据生命周期治理提供控制。
Hitachi Vantara 的首席产品官 Octavian Tanase 充满热情地表示:“VSP 360 代表着企业数据管理方式的一大飞跃。这不仅仅是一款全新的管理工具,而是一种面向现代数据基础设施的战略方法,使 IT 团队能够全权掌控它们的数据,无论数据存放于何处。”
该公司定位 VSP One 为一体化、多协议、多层级的数据平面,而 VSP 360 则是其统一的控制平面。它提供了管理 VSP One 资源、配置和策略的单一界面,覆盖多个环境,从而简化了管理工作。像是资源配置、监控和升级等例行任务可以得到简化,同时它也提供关于实际数据使用情况和存储性能的信息。
AIOps 功能能够实现自动遥测数据的关联、性能问题根本原因的识别以及可持续性分析。
Ops Center Clear Sight 功能曾为 VSP One 产品提供基于云的监控和管理服务,现在这一功能已演进为 VSP 360 Clear Sight。Hitachi V 表示,客户可以利用 VSP 360 Clear Sight 的先进分析功能来优化存储性能、容量利用率,并对本地问题进行故障排除。
VSP 360 内置了 AI 和自动化功能,可通过 SaaS、私有云或移动电话获得。Hitachi V 表示,该平台支持跨多种存储类型的集成车队管理、智能保护和基础设施即代码 (IaC) 的互操作性。此外,它还支持 AI、个人身份信息 (PII) 发现、网络安全和 IaaS 应用场景。
VSP 360 整合了 VSP One 企业级存储产品中的数据管理工具,利用 AIOps 可观察性来监控存储容量利用率和整体系统健康等性能指标。据称这将简化数据服务的交付过程。
Dell 的 CloudIQ 是一个基于云的 AIOps 平台,与 VSP One 的功能非常相似,为 Dell 的存储系统(如 PowerStore 和 PowerMax)提供 AI 驱动的洞察、监控和预测分析。
HPE 的 InfoSight 是类似的产品,通过 AI 驱动为 HPE 存储阵列(如 Primera 和 Alletra)提供管理服务。它侧重于预测分析、性能优化和自动化问题解决,并提供一个集中式仪表盘显示系统健康、容量和性能的洞察。
NetApp 则提供其 BlueXP 存储及数据服务控制平面功能。
Pure Storage 的 Pure1 平台为 Pure 的 FlashArray 和 FlashBlade 系统提供 AI 驱动的管理服务,通过基于云的界面实现性能监控、容量预测和预测性分析。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。