云计算供应商不断提高他们的混合云管理工具的水平,但仍有工作要做,给要给管理者一个真正的“单一窗口”。
混合云计算有望得到更快、更高效的IT服务交付,但好处是有代价的:增加了系统的复杂性。由于企业建立混合云,设备数量的膨胀,网络连接量的上升和自动化水平的提高,从而导致更多的管理复杂性。
供应商一直致力于整合他们的混合云管理工具,希望能给云计算管理者通过这一工具提高公共云和私有云的能见度。但是,在现实中,混合云计算管理在很大程度上仍然是低效的,管理者在应用程序之间不断切换。
数据中心由服务器、存储系统、网络设备,以及运行不同操作系统的不同厂商的应用程序组成。此外,管理权限有所扩大。数据中心的技术人员需要跟踪工作负载的位置,确保设备连接的清洁和监控性能。混合云通过将两种完全不同设备和管理工具,使这些任务复杂化。
而这种复杂性,缺陷是显而易见的。“一个供应商可能会提供一个强大的配置管理解决方案,但在分析方面薄弱。”总部位于美国马萨诸塞州的国际数据公司(IDC的研究副总裁玛丽• 约翰斯顿• 特纳评价企业系统管理软件说。
API的难题
应用程序编程接口(API)与混合云管理工具组合,以提供一个“单一窗口”在不同的云环境中发挥关键作用。为了帮助IT专业人员获得可视性混合云的软件和硬件,厂商需要提供的接口加入或退出自己的产品。此外,需要在不同的模块之间连接传输信息。例如,从配置管理系统的分析应用。
然而,API是用不同的方式设计的。基于软件的API是易于部署,但会增加处理周期,并降低系统性能。其他的API来作为家电,硬件和软件的结合并连接网络,但这些API成为IT专业人员需要管理的更大硬件,从而增加了复杂性。
此外,API整合是动态的,企业不断地升级自己的系统。随着产生如此频繁的更新,在云计算提供商更新的间隙,要对客户的混合云系统进行支持,这迫使管理员从一个管理界面,切换到另一个管理界面。
做出正确的连接
当构建一个混合云时,公共和私有云之间的连接可能是难以巩固。企业必须用不同的技术构建出一个具有凝聚力的整体数据中心。
供应商首先着眼于连接自己的服务,因此,当企业使用一个供应商基础设施时(如微软Windows服务器在微软Azure上运行),他们将获得更多的管理集成服务,这意味着从屏幕到屏幕之间少动。当基础设施来自多个供应商,其连接性和能见度变得扑朔迷离,总部设在米尔福德的质量分析厂商企业战略集团(ESG)的高级分析师科尔姆?基冈表示。
云供应商知道很多客户都希望混合和匹配他们的服务,并且已敦促提高集成度。基冈表示,亚马逊网络服务公司和谷歌公司一直在努力提高自己的管理服务,而微软公司提供了私有云和公共云一套强大的混合云管理工具和统一的界面,但还有很多工作要做,例如,微软的工具在很大程度上仍然是专有的。
传统价值
当涉及到实现一个单一窗口的混合云管理时,企业也可以向第三方供应商寻求帮助。传统的管理软件供应商,如BMC、CA技术,戴尔,休利特帕卡德企业和IBM,是强大的对等式的私有云的一面,但监测公共云方面比较弱。
采用有效的混合云管理工具
较新的云计算供应商,如CloudCruiser,Egenera公司,Kaavo公司,RightScale公司,以及Verismic软件公司,已经进入管理市场。他们往往在公共云服务做得较好,但却不善于提供私有云管理工具。虽然他们的系统是基于现代设计,并且更容易改变和维护,但他们的功能集还是比较有限。
云计算正在成为企业中最常见的计算模式之一。由于企业采用混合云,他们的重点转移到混合云管理工具。虽然这些工具正在改善,但仍在迫使管理员界面之间切换。随着混合云管理市场的成熟,企业应探索他们的选择,并选择最适合其需求的工具。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。