作者:Hitachi Vantara中国区首席技术官兼技术销售负责人 谢勇
近期,IDC 公布了其对 2021 年及未来全球 IT 行业的预测:在新冠疫情席卷全球的大环境下,全球商业生态系统以及人们日常生活均受到不同程度的震荡,到 2021 年底,80% 的企业将以比疫情前快一倍的速度推进转型,建立一种具有云特点的基础架构和应用程序的机制的数据中心。
对于 IT 行业,在某种意义上,我认为震荡和变化是一件值得期待的事情,越是这样的时期,越能加速创新技术和应用的发展,各领域将可能产生为产业和生活带来巨大变化的最佳实践。当然,基础架构和数据中心转型实践不应该是分散的单一成果,而应当是相互加成、相得益彰的成果。此过程关乎如何支持多种架构和流程,而非部署单个解决方案。新的创新系统也必须与现有系统共存,相互协调与兼容,提供具有可扩展需求的核心业务应用。
HCI 让混合云环境管理变得更轻松
如今,超融合基础架构 (HCI) 解决方案在全球范围内需求强劲;IDC预测,超融合存储市场将在2020实现89亿美元的市场规模,2020-2024年复合增长率将达到10.7%。那么,如何在现有平台的基础上采用HCI这一革命性的解决方案,已经成为当前数据中心发展过程中亟需解决的重大挑战之一。
HCI 提供了一种最适合混合云部署的模块化方法,能够将工作负载置于最佳环境中,以满足配置文件在性能、可用性、成本和安全方面的需求。HCI不仅仅是基础架构,更代表着多云平台上的工作负载服务级目标,它将服务器、存储、网络、虚拟化资源和端到端的系统管理和操作管理功能集成在一起,提供在传统存储、基于 HCI 的混合云和公有云等环境之间的无缝数据移动。
当企业组织面临着增加数据中心资源的需求时,HCI 还能够降低融合基础架构、超融合基础架构以及 VMware Cloud Foundation 之间的管理复杂性,帮助企业用更少的软件更高效地管理一个更专注的 IT 团队,从而让工作更加敏捷、简便,进而提高生产力。从 VM 到硬件组件,HCI 在整个堆栈中提供管理能力,支持用户根据整个平台的运行状况做出明智的决策。
与此同时,数据中心基础架构的演变是渐进式的,这使得企业可以平衡并最大限度地利用现有投资。传统的 SAN 和现代的超融合基础架构支持不同业务在敏捷性、规模、成本和可用性方面的需求。传统的三层架构和融合基础架构提供了最佳组件的灵活性,HCI 则以其紧凑的设计和随增长扩展的灵活性大幅提高了业务敏捷性。
超融合基础架构需与传统架构融合为一
如今,企业 IT 团队正在加快应用程序的现代化步伐,希望从本地交付 IT 服务,但同时具有公有云的速度和效率。全面的企业云平台弥合了传统基础架构和公有云服务之间的鸿沟,而 HCI 恰好是本地以及混合云的核心。
虽然 HCI 因其模块化方法、数据本地性和服务器端经济性而适合于混合云部署,但如果不对 IT 策略和业务发展方向进行仔细评估便盲目采用新架构,便会有创建另一个数据孤岛的风险。在 HCI 完全投入使用、成为一等工具时,您必须确保它能和数据中心的其他部分进行交互,否则可能在解决一个问题的同时却创造出一个新问题。
Hitachi Vantara最新的超融合基础架构产品 Hitachi Unified Compute Platform (UCP) HC 和 Hitachi UCP RS,可在更大范围内帮助客户获得更多优势,包括借助新的Hitachi UCP Advisor获得的更快配置速度、经认证的 SAP HANA 工作负载支持,以及搭载了英特尔最新的 Cascade Lake Xenon Refresh 处理器而带来的更高性能。
与许多单向 HCI 供应商不同,Hitachi Vantara 的 HCI 无缝集成了现有的外部 SAN,并通过 VMware Cloud Foundation 提供了通往混合云的最快路径。同时,通过 UCP RS 和外部 SAN 部署混合云的灵活性,企业能够充分利用现有存储投资,并选择最优平台来部署完成 SLO 需求的工作负载。
得益于其一致性、灵活性和敏捷性,SAN、HCI 和公有云无缝架构的价值大于单个解决方案的总和。统一管理软件能够极大地促进传统融合基础架构和 HCI 集成设计的实用性。Hitachi Vantara 更新后的 HCI 产品组合带来了经过增强的Day 0 – Day 2 的管理性能,其中包括升级后的生命周期管理能力,可对整个 HCI 堆栈进行无干扰升级。
当然,Hitachi Vantara 会继续加大创新投入以支持我们的客户应对新的趋势和需求,并在最紧要的时候为企业提供紧跟业务需求的 IT 敏捷性,更快地响应客户的业务需求,同时作为增强长期的数字弹性、实现业务扩展和确保更大业务运营灵活性的坚实基础。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。