时光荏苒 岁月如梭,转眼间,又是一年华为全球联接大会。相信IT圈里人的朋友圈除了卖月饼的、代购的……剩下的应该是被HC2017刷屏了。
同样,此次大会上的各大产品线动作被媒体一一关注,而记者最为关注的是Commvault与华为在大会期间宣布进一步加深混合云数据保护的合作。我们知道,云计算的兴起掀起了IT界的一场革命,全球用户上云率在逐年增长,而企业采用混合云比例会高达70%,但混合云面临着管理、成本及安全等多方面的挑战,不仅缺少云上、云下的备份系统统一管理的手段,同时传统带库介质也会带来购置、维护及网络带库费用,使企业数据安全难以保证。
Commvault与华为混合云备份解决方案,通过Commvault一体化数据管理平台,将传统企业数据中心或私有云数据备份至公有云,并支持云下或云内恢复。利用基于重删的传输加速,使带宽占用大大减少,并且兼容目前各大主流应用系统。
对于再次与华为加深合作的原因,Commvault大中华区总经理王波表示:"这是一个双向的选择,华为在通信网络、计算存储等方面成绩斐然,而Commvault在数据保护领域一直处于领先地位,借助双方各自在硬件及软件技术的优势,立足于国际化市场,共同保证本地和云端数据的安全性。"可以看出,自结盟以来,两家公司在数据支持方面合作非常愉快,而这次的加深合作使两者伙伴关系再次升级。

事实上,Commvault与华为的合作早在几年前就已经开始了,在2013年签署数据存储相关软件销售协议,此后还设计软硬件一体化集成数据保护方案等等,最值得一提的是在去年的华为全联接大会上,华为与Commvault共同在成都建立联合实验室,进行数据备份、恢复、归档和云解决方案的共同研发。
事隔一年,据Commvault亚太区企业解决方案架构师李可介绍,目前实验室主要做了三个方面工作,一是在是建模;二是在建模基础上对全新软件、平台进行嗅探测试、穿探测试、渗透测试、安全病毒扫描一系列完整的validation test(验证测试)。第三对华为的全闪存、固态阵列、公有云、私有云平台搭建测试场景。
王波补充道:"目前实验室主要做技术和业务两个方向,目前处于探讨规划阶段。"
其实,企业级数据保护市场可以说是个不大也不算小的圈子,市场需求增长,新兴厂商也层次不穷,而连续数年增长在市场站稳脚跟的Commvault也证明了自己的成功之处。
"Commvault会像长者一样思考,像青年一样奔跑,像中年人一样管理好家庭。"李可非常幽默且形象的比喻形容企业优势。他认为,Commvault算是业界覆盖面较为广泛的厂商,无论是虚拟化平台、云平台,容器技术等,都在逐渐做宽延深,Commvault支持公有云对象存储、虚拟化平台、大数据平台最广泛的平台,且支持大部分应用系统,用户可定制API,灵活选择。
除此之外,王波对当前数据保护领域的竞争格局也提出了自己的看法。我们知道,在当前市场,除Commvault,Veritas云灾备、Veeam虚拟机保护均占据不同市场份额。王波对Commvault目前发展持满意态度,他认为,公司在Gartner魔力象限已经连续七年保持遥遥领先地位,说明客户、媒体及IT界对公司产品、技术是认可的。"Commvault本身的核心部分不仅仅局限于数据保护、备份与恢复,主要还是面向全生命周期管理。" 王波表示。
在当今的数字经济中数据已然成为助力企业成功的重要因素。随着前段时间勒索病毒的不断攻击,企业的云化之路愈加激烈。此次华为与Commvaut在2017全联接大会上宣布加深混合云数据保护合作,相信会帮助企业将价值最大化。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。