采用IBM GDPC(Geographically Dispersed DB2 pureScale Clusters)同城异地双活灾备技术民生银行计费业务系统于近日正式上线运营,目前运行稳定。该系统采用的数据库双活方案大幅提高了民生银行计费业务系统的可靠性和可用性,有效保证了银行业务的连续性,同时也为民生银行的业务创新奠定了坚实的基础。
民生银行计费系统统一管理着民生银行全行的收费项目,为前台提供计费、累计等服务,为后台提供欠费处理、查询统计等功能,并支持周期性收费和协议性收费。民生银行的计费系统构建于IBM服务器和DB2数据库平台上,目前每天受理业务量超过250万笔。
民生银行科技部数据库运维经理袁春光先生表示,“基于IBM DB2 pureScale数据库集群架构的双活技术是一种高效强大的双活系统,灾难发生时无需切换,对应用程序完全透明,实现了RTO(Recovery Time Objective,复原时间目标)基本为零。IBM DB2 pureScale双活技术在同城环境下的实现,对于保证银行交易系统的业务连续性具有重要意义,是同城双活领域的一项革命性技术。”
业务连续性对于银行业务运营至关重要。银行业信息系统则承载着银行核心业务和金融服务的稳定运行,一个环节出现问题,就可能引发“多米诺骨牌”式的传递效应,引发系统性金融信息安全风险,巨大的经济损失尚能估算,但对银行社会声誉所造成的巨大损失甚至容易引发全社会恐慌所带来的巨大冲击则不可估量,也很难事后弥补。因此,国家主管部门对银行业务连续性提出了明确的监管要求,要求RTO时间不超过2个小时。
同时,随着银行业竞争的加剧和银行自身发展的需要,各银行普遍加大了业务创新以实现差异化竞争,使业务应用的种类日益增多,业务逻辑也更加复杂,数据对于业务的透明性也越来越重要。在灾难发生时尽量避免业务中断,能够以最快时间和最小代价恢复数据和服务成为银行信息系统高可用性不断追求的目标。
银行计费系统作为典型的7×24小时OLTP(On-Line Transaction Processing,联机事务处理系统)应用,对于系统服务的连续性有着极高的要求。传统的主流灾备方案如基于存储复制技术的方案也只能实现部分故障RTO时间不超过2个小时。行业迫切需要一种更好的解决方案。
IBM GDPC(Geographically Dispersed DB2 pureScale Clusters)同城异地双活灾备解决方案,基于IBM pureScale技术实现地理跨越同城双活,系统可用性高,实现了RTO时间几乎为零,支持双数据中心同时读写,充分利用双中心的资源,灾难发生时无需切换,彻底消除了传统灾备切换过程中的各种风险。
袁春光先生认为,IBM GDPC数据库同城双活技术提供了以前不具备的技术手段,对银行业务连续性保证将有质的提升:既能满足银行业监管所需的业务连续性要求,同时还能提供更好的性能指标。据估算,对业务连续性要求最为苛刻的银行交易系统有一半以上都具备迁移到数据库双活平台的可能。未来,民生银行也将有更多的交易系统将逐步进行迁移。
更普遍地,数据库双活技术对于互联网金融等对业务连续性同样有苛刻要求的业务领域也同样适用,因此这项技术在行业推广部署具有广泛的现实意义。
IBM大中华区大数据与分析事业部平台业务总经理钟泽敏先生表示,“IBM一直致力于为银行和金融行业提供高可用的业务连续性解决方案。基于IBM DB2 pureScale的数据库双活技术是这种努力的最新例证,在为用户提供持续的可用性和应用程序透明性的同时,降低了业务增长的风险和成本。它提供了同城双活的最佳实践,再次树立了行业标杆。”
好文章,需要你的鼓励
AI实验室不再与企业签署昂贵的数据合同,而是通过Mercor平台招募前员工获取行业知识。Mercor为投资银行、咨询公司和律所的前员工与OpenAI、Anthropic等AI实验室搭建桥梁,向行业专家支付高达每小时200美元来训练AI模型。该公司年化经常性收入达5亿美元,估值100亿美元,每天向承包商支付超150万美元。
约翰斯·霍普金斯大学研究团队提出了创新的隐私保护AI文本生成方法,通过"控制代码"系统指导AI生成虚假敏感信息来替代真实数据。该方法采用"藏身于众"策略,在医疗法律等敏感领域测试中实现了接近零的隐私泄露率,同时保持了高质量的文本生成效果,为高风险领域的AI应用提供了实用的隐私保护解决方案。
作为AI热潮的最大受益者,英伟达成为首家市值突破5万亿美元里程碑的上市公司。受特朗普总统表示将与习近平主席讨论该公司Blackwell芯片消息推动,公司股价周三上涨超过5.6%。英伟达CEO黄仁勋预计AI芯片销售额将达5000亿美元,并为美国建设七台新超级计算机。该公司还投资10亿美元于诺基亚,用于AI原生5G和6G网络开发。这一里程碑距离突破4万亿美元仅三个月。
这项由Reactive AI提出的稀疏查询注意力机制通过减少查询头数量而非键值头数量,直接降低了注意力层的计算复杂度,实现了2-3倍的训练和编码加速。该方法在长序列处理中表现出色,在20万词汇序列上达到3.5倍加速,且模型质量损失微乎其微,为计算密集型AI应用提供了新的优化路径。