美国时间2018年5月14日-16日,VeeamON 2018在美国芝加哥举行。这也是第四届Veeam年度用户及合作伙伴会议,Veeam 展示了全球用户如何利用面向智能数据管理的 Veeam Hyper-Availability Platform 保证业务连续性、降低风险并加快创新速度,在今天这样一个技术时代,物联网、人工智能、机器学习和区块链等技术要求平台具有强大的可扩展性,并能够轻松进行数据管理。
Veeam联合创始人Ratmir Timashev接受至顶网采访,表示Veeam在联合首席执行官兼总裁 Peter McKay 的领导下取得了战略上的突进,并表示目前Veeam在财务上处于非常健康的一个状态,公司目标是打造一个百年企业。同时今年真正跨入一个十亿美元的企业。而今年Veeam提出新的愿景,要做一个为企业提供超可用智能数据管理的企业。在今后Veeam给出一个非常明确的信号就是云是未来发展方向。
Veeam公司联合CEO兼总裁Peter McKay谈到,Veeam成立的背景就是面向多云环境。“自从Veeam于2006年成立以来,我们一直是多云环境中应用程序和数据可用性解决方案的首选提供商,我们将自己牢牢地确立为该领域的领先供应商,”
同时Veeam NPS得分达到73,超过苹果、AWS。苹果公司的得分是72分,亚马逊的得分是69分。
Veeam连续第五年超越行业。Veeam的NPS得分达到73 。比行业平均水平高3.5倍Veeam是客户满意度领域无可争议的行业领导者。
Veeam公司联合CEO兼总裁Peter McKay在接受至顶网采访时表示,取得这样的成绩首先是Veeam的产品体验非常好,非常客户化和易操作化和使用化。其次,客户服务客户关怀做的非常好。最重要的是产品的创新度非常好,能给客户带来惊喜。同时内部来看Veeam也是全球最佳雇主之一,是以人为本的公司。
Veeam 中国区总经理施勤在接受至顶网采访时表示,中国用户的需求和全球用户相比较,处于相同的需求。国内速度发展很快,都认可混合云发展和多云发展的趋势,他表示:“2017年对于中国市场来讲,最大的惊喜就是中国市场的高速增长。Veeam在中国也进入一个快速增长的通道,中国市场增长60%。2018年中国的目标是140%的增长。同时Veeam对中国的投资从人员和物资来看都是翻倍。今年Veeam会成立上海办公室。注重长江三角洲是公司一个重要的战略。
同时施勤表示Veeam 当天推出的战略利用了更基于行为的系统,因此数据可以自主管理,并以创记录的速度提供关键业务和运营洞见。这些计划将确保我们在企业级市场不断发展,并在包括中国在内的亚太及日本地区推广超级可用性。
在VeeamON 2018上,发布了Veeam Hyper-Availability Platform的新核心组件——Veeam DataLabs™。Veeam DataLabs是一种副本数据管理格式,让组织能够按需求轻松创建新的生产环境实例。这一功能在普通数据保护情景(如DevTest、DevOps和DevSecOps)之外增加了新的用例,加入了安全和取证测试,以及适用于IT运营的按需沙盒,可在加速创新、提高运营效率、降低风险和优化资源方面为企业创造价值。
谈到Veeam DataLabs,Veeam 中国区总经理施勤在接受至顶网采访时表示“在数据成为关注焦点的世界中,企业为客户提供超级可用性并避免停机比以往任何时候都更重要。Veeam DataLabs确实将加强Veeam的Hyper-Availability平台,为亚太及日本地区的企业和全球提供创新的数据解决方案,而不会影响用户体验。”
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。