扫一扫
分享文章到微信
扫一扫
关注官方公众号
至顶头条
由于存储经理们急于降低需要备份的数据量,重复数据删除(data de-duplicantion,去除数据副本)已经成为了一个热门技术。同时用户们也十分乐于接受这项技术,尽管厂商的很多承诺中还存在着众多问题。
除了像Avamar、Data Domain、Diligent这些最早进入这个领域内的厂商外,飞康(FalconStor)和Sepaton等厂商也正准备在产品中添加重复数据删除技术。赛门铁克已经采取了行动,增加了这项技术。此外这个领域内的并购活动也正在进行着,EMC于本月初以1.65亿美元收购了Avamar,今年3月ADIC(现已经被昆腾所收购)以6300万美元收购了Rocksoft。
所有的主流重复数据删除厂商均大肆宣扬其产品卓越的数据压缩率——但这些承诺在现实情况下却很难实现。尽管如此,目前用户对于这些产品的实际压缩比率还是知足的。
来自Idaho Central Credit Union公司的网管Lance Jeffrey表示他们公司拥有两台Data Domain的重复数据删除设备,其中一台的压缩比率是12∶1,另一台是9∶1,而该厂商称其产品的压缩比率能达到20∶1甚至50∶1。
Jeffrey认为之所以他们得到的数据压缩比率和厂商所宣传的有那么大的出入,主要是由于他们网络上有大量图像文件,它们并不像其它文件那样那么好压缩。
Data Domain的创始人之一Brian Biles对此解释说,他们公司所宣传的20∶1的压缩率是一个基于平均值的不确切数字。但他表示很多用户在很多情况下会得到比这个压缩率大得多的结果。虽然并没有对Jeffrey所遇到的情况进行任何评论,但他表示对于压缩率的浮动问题不仅仅取决于数据的类型,还会受到用户的备份策略和规则的影响。
例如,如果一家企业每天都要备份Word文档,那么它就会比那些不经常进行备份的公司得到更高的压缩率,这是由于后者的备份数据量要小。同样,那些不包含有远程站点的典型的数据中心备份要比包含远程站点的数据中心拥有更低的压缩率,后者的很多数据都是存储在多个不同的地方。
Biles毫不犹豫地表示他们的产品的压缩率要高于20∶1。他强调,对于每天备份企业数据库和Exchange的用户,能实现40∶1至60∶1的压缩率。
其它厂商甚至承诺了更大的压缩率。例如,Avamar就声称不管数据种类是什么,对于每天备份的用户来说,均可得到300∶1的平均压缩率。
但是至少有一位Avamar的客户——Jason Paige,金融公司Integral Capital Partners的信息系统经理,表示他们仅得到了20∶1的压缩率。但他对于这个结果已经相当满意了。“它对于Exchange相当有效。”据Paige透露,在使用Avamar的产品以前,他要用至少24个小时来对其大约100GB的Exchange存储进行消息级别(message-level)的备份。而现在1个小时就可完成文件级、数据库级与消息级别的备份。
除了厂商的夸大宣传外,Paige和Jeffrey都没有对重复数据删除产品的访问和恢复速度进行过抱怨。
但底线是什么?重复数据删除确实还只是一项新生技术,因此大家都对厂商的这种夸张的营销手段不太在意。显然,最终结果就是大家都对于厂商的这种夸大宣传并不太在意。
但用户依然要谨慎对待。“进行数据的完全备份经常会得到很高的压缩率。这是因为全备份中保存有大量的重复数据,”一位匿名的业内分析师提醒说,“而厂商所宣传的那么高的压缩率都是在这种情况下产生的。但实际使用中,大多数用户仅能从增量备份中得到2∶1至3∶1的压缩比率。”
如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。
现场直击|2021世界人工智能大会
直击5G创新地带,就在2021MWC上海
5G已至 转型当时——服务提供商如何把握转型的绝佳时机
寻找自己的Flag
华为开发者大会2020(Cloud)- 科技行者