在国内的一些企业、政府机构招标采购数据备份软件/设备的参数规格要求中,有时会看到以下这样的描述:
“支持远程备份,采用多主控模式,各主控能独立工作;支持断点续传、双向缓冲、压缩、流量控制、加密等有效的广域网数据备份技术,减少网络通信流量,提高数据传输的稳定性和高效性。”
远程备份,属于数据保护技术中的一种异地容灾高级功能。上述文字中对远程备份的一系列技术要求并不是阳春白雪、华而不实的宣传噱头,而是在经历了各种用户项目、遇到真实需求,为了有效解决问题不断发展完善而来的。
首先,什么是多主控模式呢?
在介绍多主控模式之前,首先谈谈一主(master)多从(slave)模式的远程备份架构。所谓主-从模式,即在远程备份或者多个备份服务器节点的环境中,所有任务都是由控制节点来发起的,在数据恢复时也必须有catalog——也就是存放备份目录的数据库才能进行。
一主多从模式的弊端在于,当主控节点出现故障,访问不了catalog的情况下从节点(介质服务器)上的数据也无法恢复。如果是在数据中心内的局部故障,有RAID保护的硬盘,恢复catalog数据还不算太麻烦。如果是做的远程备份,遇到站点级的灾难,要保证远程灾备中心的介质服务器能够恢复,就必须把catalog也传过去。那么有没有一劳永逸的办法呢?
答案就是多主控模式。多主控模式有点像存储里面的复制,也就是对等的节点可以做远程互备,一对多、多对一均可。备份数据和任务“对象”信息在每一个备份服务器(或者一体机)上都是完整的,可以用于在异地直接独立恢复。这样,介质服务器将不再依赖主控节点,也无需单独考虑catalog的远程备份。
下面以在企业级数据保护领域有着超过10年自主研发经验的火星高科开发的火星备份软件/一体机为例,简单介绍一下多主控远程备份能够解决的问题。
上图是备份软件中添加异地主机时的一个界面,首先显示的“您能够添加的异地客户机数”来看,一对多远程备份至少可以做到30个目标。
位置——手工填写备份目标的描述。
IP地址——填写异地装有传输中心的主机(MBA备份服务器或火星舱)的外网IP。
默认磁带池——选择本地存放备份数据的磁带池,可以是物理磁带设备,也可以是磁盘存储虚拟的磁带格式(VTL等)。
压缩级别——可选0-9级,默认为6级。级别越高,压缩效果越好,计算资源消耗相对最大;反之亦然,0级代表无压缩。
设置合理的压缩级别,将能够显著降低远程备份对网络带宽的需求。
重试时间——以分钟为单位设置重试时间范围,在此期间每隔5秒重试连接一次。
在进行远程备份时,如果没有“断点续传”机制,一旦遇到网络中断或者不稳定的情况,很容易造成整个备份任务失败的情况。该功能在国内的WAN网络环境中更加重要,因为线路质量通常没有那么好。
传送时间——允许任务在每天的此时间段内进行传输。
例如可以选择只在线路带宽占用不繁忙的夜间,传输远程备份数据。
速度限制——根据用户的网络带宽填写合适的传输速度,填写“0”为不限制速度。
对远程备份可以占用的带宽进行限制,以保证同一通信线路上的其它正常通信不受影响。
最下面,还有是否加密传输的选项。数据安全在有些领域是个大问题,如果备份数据在远程传输过程中被他人截获,加密处理能够最大限度减低敏感数据泄露的隐患。
正是凭借着以上强大、实用的远程备份功能,火星高科才得以在这些年成功实施了多个大型项目。包括:中国科学院全国12个分院100多个研究所备份项目、国家安监总局“金安”工程25个省级局本地及远程容灾备份项目等等。
国家安监总局“金安”工程25个省级局本地及远程容灾备份项目
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。