云计算供应商不断提高他们的混合云管理工具的水平,但仍有工作要做,给要给管理者一个真正的“单一窗口”。
混合云计算有望得到更快、更高效的IT服务交付,但好处是有代价的:增加了系统的复杂性。由于企业建立混合云,设备数量的膨胀,网络连接量的上升和自动化水平的提高,从而导致更多的管理复杂性。
供应商一直致力于整合他们的混合云管理工具,希望能给云计算管理者通过这一工具提高公共云和私有云的能见度。但是,在现实中,混合云计算管理在很大程度上仍然是低效的,管理者在应用程序之间不断切换。
数据中心由服务器、存储系统、网络设备,以及运行不同操作系统的不同厂商的应用程序组成。此外,管理权限有所扩大。数据中心的技术人员需要跟踪工作负载的位置,确保设备连接的清洁和监控性能。混合云通过将两种完全不同设备和管理工具,使这些任务复杂化。
而这种复杂性,缺陷是显而易见的。“一个供应商可能会提供一个强大的配置管理解决方案,但在分析方面薄弱。”总部位于美国马萨诸塞州的国际数据公司(IDC的研究副总裁玛丽• 约翰斯顿• 特纳评价企业系统管理软件说。
API的难题
应用程序编程接口(API)与混合云管理工具组合,以提供一个“单一窗口”在不同的云环境中发挥关键作用。为了帮助IT专业人员获得可视性混合云的软件和硬件,厂商需要提供的接口加入或退出自己的产品。此外,需要在不同的模块之间连接传输信息。例如,从配置管理系统的分析应用。
然而,API是用不同的方式设计的。基于软件的API是易于部署,但会增加处理周期,并降低系统性能。其他的API来作为家电,硬件和软件的结合并连接网络,但这些API成为IT专业人员需要管理的更大硬件,从而增加了复杂性。
此外,API整合是动态的,企业不断地升级自己的系统。随着产生如此频繁的更新,在云计算提供商更新的间隙,要对客户的混合云系统进行支持,这迫使管理员从一个管理界面,切换到另一个管理界面。
做出正确的连接
当构建一个混合云时,公共和私有云之间的连接可能是难以巩固。企业必须用不同的技术构建出一个具有凝聚力的整体数据中心。
供应商首先着眼于连接自己的服务,因此,当企业使用一个供应商基础设施时(如微软Windows服务器在微软Azure上运行),他们将获得更多的管理集成服务,这意味着从屏幕到屏幕之间少动。当基础设施来自多个供应商,其连接性和能见度变得扑朔迷离,总部设在米尔福德的质量分析厂商企业战略集团(ESG)的高级分析师科尔姆?基冈表示。
云供应商知道很多客户都希望混合和匹配他们的服务,并且已敦促提高集成度。基冈表示,亚马逊网络服务公司和谷歌公司一直在努力提高自己的管理服务,而微软公司提供了私有云和公共云一套强大的混合云管理工具和统一的界面,但还有很多工作要做,例如,微软的工具在很大程度上仍然是专有的。
传统价值
当涉及到实现一个单一窗口的混合云管理时,企业也可以向第三方供应商寻求帮助。传统的管理软件供应商,如BMC、CA技术,戴尔,休利特帕卡德企业和IBM,是强大的对等式的私有云的一面,但监测公共云方面比较弱。
采用有效的混合云管理工具
较新的云计算供应商,如CloudCruiser,Egenera公司,Kaavo公司,RightScale公司,以及Verismic软件公司,已经进入管理市场。他们往往在公共云服务做得较好,但却不善于提供私有云管理工具。虽然他们的系统是基于现代设计,并且更容易改变和维护,但他们的功能集还是比较有限。
云计算正在成为企业中最常见的计算模式之一。由于企业采用混合云,他们的重点转移到混合云管理工具。虽然这些工具正在改善,但仍在迫使管理员界面之间切换。随着混合云管理市场的成熟,企业应探索他们的选择,并选择最适合其需求的工具。
好文章,需要你的鼓励
研究人员正探索AI能否预测昏迷患者的医疗意愿,帮助医生做出生死决策。华盛顿大学研究员Ahmad正推进首个AI代理人试点项目,通过分析患者医疗数据预测其偏好。虽然准确率可达三分之二,但专家担心AI无法捕捉患者价值观的复杂性和动态变化。医生强调AI只能作为辅助工具,不应替代人类代理人,因为生死决策依赖具体情境且充满伦理挑战。
哥伦比亚大学研究团队开发了MathBode动态诊断工具,通过让数学题参数按正弦波变化来测试AI的动态推理能力。研究发现传统静态测试掩盖了AI的重要缺陷:几乎所有模型都表现出低通滤波特征和相位滞后现象,即在处理快速变化时会出现失真和延迟。该方法覆盖五个数学家族的测试,为AI模型选择和部署提供了新的评估维度。
麻省理工学院研究发现过度依赖AI会导致认知债务,削弱基本思维能力。研究表明交替进行无辅助思考和AI支持工作的模式能保持认知敏锐度。这种认知高强度间歇训练模仿体能训练中的HIIT模式,通过短时间高强度思考与恢复期交替进行,可以强化大脑神经回路,防止认知衰退,提升独立思考能力。
这项研究首次发现AI推理模型存在"雪球效应"问题——推理过程中的小错误会逐步放大,导致AI要么给出危险回答,要么过度拒绝正常请求。研究团队提出AdvChain方法,通过训练AI学习"错误-纠正"过程来获得自我纠错能力。实验显示该方法显著提升了AI的安全性和实用性,用1000个样本达到了传统方法15000个样本的效果,为AI安全训练开辟了新方向。