12月18日,由中国信息通信研究院、中国通信标准化协会、北京市大数据中心联合主办的“2020数据资产管理大会”在北京拉开帷幕,会上信通院为通过大数据、数据库等能力评测的产品颁发证书。华为云GaussDB(DWS)数据仓库以单集群2048节点的超大规模,满分通过测试认证,是迄今为止信通院认证的最大规模分布式数据库集群,刷新了历史纪录,树立了业界新标杆。
随着移动互联网、IoT、人工智能等技术的迅速发展,数据产生的规模空前增长,据知名咨询机构统计,预计未来5年数据规模年均增速达30%,面对快速膨胀的数据规模,各类企业、机构需要更快、更全面的掌握分析数据,挖掘内在价值,支撑经营决策和优化管理,数据仓库作为核心查询分析平台,必须要具备大规模集群能力,也是数据库厂商需要突破的核心技术点之一。
华为云GaussDB(DWS)为各企业用户提供最佳性能、按需扩展、稳定可靠的企业级数据仓库,满足客户超大规模数据的高性能查询分析诉求。在本次大规模集群测试评估中,华为云GaussDB(DWS)一次性通过50项测试用例,包括27项必选用例和23项可选用例,交出了完美的答卷。
大规模数据仓库集群不仅仅是将众多服务器“攒”起来,更需要解决大并发复杂查询下的通信连接风暴问题。并且在数千节点的集群中,平均每天都会有硬件故障发生,如何应对“硬件不可靠”带来的问题?如何在硬件亚健康情况下数据仓仍能提供稳定的性能,如何在操作系统“软死”情况下数据仓库不出现卡顿、无响应等问题,是技术面临的极大挑战。在2048节点大规模集群认证的背后,是华为云GaussDB(DWS)强大“硬核科技”的表现。
一、Multi-Streams多流通信技术
在2048节点规模下,集群进行全并行数据交换时,集群内可达百亿级的并行连接,出现通信连接风暴,已远远超出TCP连接端口号和socket文件句柄上限。
GaussDB(DWS)自研的Multi-Streams多流通信技术,将连接数提升5个数量级,突破物理机TCP连接端口限制,能够支持集群内百亿级通信连接,并且理论支持节点数无上限。
Multi-Streams多流通信采用逻辑连接技术,避免了TCP物理连接的三次握手的机制,单数据节点建连性能达到100万次/s,提升20倍。
该技术基于全异步无阻塞代理通信架构,支持跨逻辑连接的socket合并,将网络吞吐能力提升3倍。
二、高可用设计及集群管理技术
GaussDB(DWS)设计之初,即充分考虑高可用性,其具备多层级高可用及容灾能力,在进程级、节点级、集群级出现软硬件异常的情况下具备平滑处理能力。
在棘手的硬件亚健康、“软死”问题上,GaussDB(DWS)具备完善的智能检测和处理机制,能够实时监测任意节点状态,包括服务器亚健康状态、磁盘慢盘、静默损坏等等场景,通过自动感知、剔除、平滑切换等高可用策略,提高业务的连续性。
并且,在物理组件发生故障的情况下,Server端Multi-Retries技术能够大幅减少故障失败的业务感知,保障业务持续运行。
在集群管理上,针对超大节点数场景,通过逻辑重构,实现集群起停的全并行处理,2048节点规模下具备分钟级起停能力。
三、大规模场景下的并行数据备份恢复技术
完全在线:数据备份期间,采用全程无加锁技术,任何业务SQL、包括DDL均不受影响
多层级并行极速备份:每节点独立多并发、多通道备份,提供10PB级数据快速备份恢复性能
全局一致性快照:集群级全局一致性快照,数据强一致性保证
细粒度数据恢复:支持多粒度数据恢复,满足客户误删、个别表损坏等紧急恢复需求。
得益于包括以上三点在内的一系列核心技术,华为云GaussDB(DWS)一举通过信通院2048节点大规模分布式分析型数据库评测,成为国内首个单集群突破两千的商用数据仓库产品。
华为云GaussDB(DWS)数据仓库已广泛应用于金融、政府、运营商、交通、物流、互联网等领域,服务于全球1000+客户。GaussDB(DWS)践行"平台+生态"战略,联合500+合作伙伴,为各行业提供竞争力的数据仓库解决方案。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。