Veeam今天发布了《Veeam 2023年云保护趋势报告》的调查结果,涵盖了四个关键的“服务”场景:基础设施即服务(IaaS)、平台即服务(PaaS)、软件即服务(SaaS),以及备份和灾难恢复即服务(BaaS/DRaaS)。调查发现,企业逐渐越来越意识到需要保护他们的SaaS环境。例如,近90%的Microsoft® 365的受访客户使用补充措施,而不是仅仅依靠内置的恢复功能。当发生网络和勒索软件攻击时,为快速恢复提前做好准备是使用备份的主要原因,合规监管则是第二大业务驱动因素。
Veeam首席技术官及产品战略高级副总裁Danny Allan表示:“随着向远程办公模式和当下的混合工作环境的大规模转变,云驱动工具和服务的采用越来越多,这使得各行业的混合IT和数据保护策略成为关注的焦点。随着网络安全威胁的不断增加,企业必须超越传统的备份服务,有目的地建立一个有最适合其业务需求和云策略的方法。此次的调研显示,工作负载继续从数据中心向云端流动并再回到数据中心,以及从一个云端向另一个云端流动,这使得数据保护策略更加复杂。调研结果表明,虽然现代IT企业在云和数据保护方面取得了显著进步,但仍有许多工作要做。”
《Veeam 2023年云保护趋势报告》的发现包括:
软件即服务(SaaS):
基础设施即服务(laaS): 尽管各种规模的组织现在都采用混合云架构,但这并不是通往云的单行道,这降低了现代数据中心的重要性。
平台即服务(PaaS):当大多数组织初步将服务器从数据中心“提升并转移”到基础设施即服务(laaS)时,大多数企业都认为,作为原生云服务运行基础的IT场景,如文件共享或数据库,是成熟的IT工作负载的未来:
备份和灾难恢复即服务(BaaS/DRaaS):几乎每一个IaaS/SaaS环境也以某种形式运用云服务作为其数据保护策略的一部分。
今年的报告与去年相比发生了重大转变,因为客户越来越有兴趣将备份外包,并获得“交钥匙”或“白手套”级别的管理服务,而不是由内部IT人员继续管理BaasS交付的基础设施。这一转变表明了对提供商的经验和信任正在增加,也可以表明过去一年IT人才供应链面临的挑战。
《Veeam 2023年云保护趋势报告》源自年度《Veeam数据保护趋势报告》,是第三方调研机构对来自7个国家(美国、英国、法国、德国、日本、澳大利亚、新西兰)的1700名客观的IT领袖进行调研的结果,关注于他们在生产和保护场景中使用云服务的情况,以便在当今云优先的数字环境中对整个现代IT企业的混合策略轨迹提供最大的单个视图。这项广泛的市场研究,是为了解与运营和保护云托管工作负载相关的责任和方法的不同观点,以及使用云驱动的数据保护时的考虑因素。
下载《Veeam 2023年云保护趋势报告》(Veeam Cloud Protection Trends Report 2023)了解更多详情: https://vee.am/CPT23 。想了解更多的信息,请访问http://www.veeam.com/cn/ .
关于本报告
Veeam®于2022年秋季委托一家独立调研机构进行了这项调查。该报告调查了1700名客观的IT领袖,关注于他们在生产和保护场景中使用云服务的情况,询问了每个场景的代表性人物,以便收集人物视角之间的差异,以及策略驱动和备份方法。
这是一项广泛的市场研究,研究对象是在云中运行至少一个生产工作负载(IaaS、PaaS或SaaS)的客观组织。这项调查是代表Veeam进行的,目的是了解与运营和保护云托管工作负载相关的各个角色的观点、职责和方法,以及使用云驱动的数据保护时的考虑因素。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。