2月26日,在2025阿里云PolarDB开发者大会上,阿里云宣布PolarDB登顶全球数据库性能及性价比排行榜。根据国际数据库事务处理性能委员会(TPC,Transaction Processing Performance Council)官网披露,阿里云PolarDB云原生数据库以超越原记录2.5倍的性能一举登顶TPC-C基准测试排行榜,以每分钟20.55亿笔交易(tpmC)和单位成本0.8元人民币(price/tpmC)的成绩刷新TPC-C性能和性价比双榜的世界纪录。该记录是中国基础软件取得的又一里程碑式成就,标志着PolarDB创新的云原生架构不仅突破了单集群的扩展性瓶颈,还成功扛住了全球最大规模的并发交易峰值,在性能、可扩展性等多个维度领跑全球。
TPC-C是由TPC组织制定的针对衡量在线事务处理(OLTP)系统性能的基准测试,被誉为数据库领域的“奥林匹克”,是全球最具公信力的测试标准,也是商业数据库证明自身实力的硬性门槛之一。该基准测试会考察关系型数据库系统的全链路能力,包括2大衡量标准:性能(tpmC)和性价比(price/tpmC)。性能表示数据库能够跑多快,性价比表示数据库的成本能做到多低。
TPC-C测试由一系列严苛的基准测试模型组成,是一场长达40小时的数据库性能“极限挑战”赛。测试过程包括故障容灾测试、全压力测试等。其中,数据库系统需要在极限压力下运行8小时以上,tpmC的波动率不能超过2%,同时在这8小时内必须保证数据100%的正确性。与此同时,测试模型会人为模拟各种硬件故障情况,确保数据不丢失,并能很快恢复原有性能。整个压力测试在过程中和测试后,都要对整体数据进行校验,保证数据的完整性和一致性。
本次打榜中,阿里云PolarDB云原生数据库以20.55亿tpmC的性能成绩一举夺魁,且成本相比原纪录降低了近40%。在测试的8小时期间,PolarDB完成了2.2万亿次数据操作,tpmC波动率仅为0.16%,保障了100%的数据正确性,这同时也体现了PolarDB Limitless超大集群的性能稳定性。在稳定性测试中,HA(“高可用性”High Availability)实现秒级切换,切换期间性能损失小于1%,完美通过了ACI(Atomicity(原子性)、Consistency(一致性)、Isolation(隔离性)3个特性测试。同时,这一新纪录模拟了16亿用户同时上线进行交易,其处理能力相当于天猫2020双11订单峰值场景的59倍,成功扛起全球最大流量洪峰。
登顶双榜的背后,是阿里云PolarDB云原生数据库在技术和架构上的持续创新,通过与英特尔至强处理器等软硬件的深入结合、单机性能优化等方式,突破了单集群管理瓶颈,实现了100PB级数据管理,最高扩展至数千个计算节点的能力,单核性能相比原纪录提升1.8倍。同时,借助高性能RDMA、持久化内存AliSCM、SmartSSD等新硬件,PolarDB将I/O延迟最低降低至25微秒。
阿里云智能集团副总裁、数据库产品事业部负责人李飞飞在会上表示:“很荣幸能够在全球最权威的性能赛道上与海内外厂商同台竞技,PolarDB登顶TPC-C排行榜,不仅是阿里云自身技术实力的证明,更说明国产数据库在性能和性价比方面均已达到全球领先水平。让每个CPU核都能物尽其用、为客户提供更高的性能是PolarDB持续的优化重点。通过创新性的云原生架构,云原生数据库将像“搭积木”一样简单、易用,我们期待为用户提供更优的性价比、更好的云数据库体验。”
据悉,阿里云PolarDB在过去3年实现400%的增速,目前用户数已超过10000家,并规模化应用于政务、金融、电信、物流、互联网等领域的核心业务系统,服务了自然人税收管理系统、全国60%的省级医保信息平台等机构,以及中国联通、中国石化、友邦保险、米哈游、飞鹤等知名企业,助力企业加速创新升级,抢占市场先机。
好文章,需要你的鼓励
这篇研究论文介绍了"Speechless",一种创新方法,可以在不使用实际语音数据的情况下训练语音指令模型,特别适用于越南语等低资源语言。研究团队通过将文本指令转换为语义表示,绕过了对高质量文本转语音(TTS)系统的依赖。该方法分三个阶段:首先训练量化器将语音转为语义标记;然后训练Speechless模型将文本转为这些标记;最后用生成的合成数据微调大型语言模型。实验表明,该方法在越南语ASR任务中表现出色,为低资源语言的语音助手开发提供了经济高效的解决方案。
《Transformer Copilot》论文提出了一种革命性的大语言模型微调框架,通过系统记录和利用模型训练过程中的"错误日志"来提升推理性能。研究团队受人类学习者记录和反思错误的启发,设计了一个"副驾驶"模型来辅助原始"驾驶员"模型,通过学习错误模式并在推理时校正输出。这一方法在12个基准测试上使模型性能提升高达34.5%,同时保持计算开销最小,展现了强大的可扩展性和可迁移性,为大语言模型的优化提供了全新思路。
德克萨斯大学Austin分校的研究团队提出了RIPT-VLA,一种创新的视觉-语言-动作模型后训练范式。该方法通过让AI模型与环境互动并仅接收简单的成功/失败反馈来学习,无需复杂的奖励函数或价值模型。实验证明,RIPT-VLA能显著提升现有模型性能,在轻量级QueST模型上平均提升21.2%,将大型OpenVLA-OFT模型推至97.5%的前所未有成功率。最令人惊叹的是,仅用一个示范样本,它就能将几乎不可用的模型在15次迭代内从4%提升至97%的成功率,展现出卓越的数据效率和适应能力。
北京大学与华为诺亚方舟实验室研究团队共同开发了TIME基准,这是首个专为评估大语言模型在真实世界场景中的时间推理能力而设计的多层级基准。该研究提出了三个层级的时间推理框架,包含11个细粒度任务,并构建了涵盖38,522个问答对的数据集,针对知识密集型信息、快速变化的事件动态和社交互动中的复杂时间依赖性三大现实挑战。实验结果表明,即使是先进模型在构建时间线和理解复杂时间关系方面仍面临显著挑战,而测试时扩展技术可明显提升时间逻辑推理能力。