近日,Gartner® 发布的《Market Share Analysis: Database Management Systems, Worldwide, 2023》(2024 年 6 月)报告显示:“2023 年全球数据库管理系统(DBMS)市场的增长率为 13.4%,略低于去年的 14.4%,但仍然超过了整体软件市场 11.1% 的增长率。”企业级开源分布式数据库厂商 PingCAP 以 97.9% 的增长率超越 Snowflake,ClickHouse 和 Cockroach Labs 成为全球数据库管理系统市场增速最快的厂商。

在 Gartner® 2022-2023 年厂商增长率排名图中看到,PingCAP 在 2023 年以接近 100% 的增长率占据首位,而去年排名第一的 Snowflake 以 52.6% 的增长率紧随其后,Cockroach Labs 以 47.8% 的增长率继续保持强劲的发展势头。
由 PingCAP 创立的开源分布式数据库 TiDB,为企业级关键业务打造,具有原生分布式存算分离、分布式事务、实时HTAP 等特性,以满足关键业务对高性能、动态扩展和高可用性的需求,旨在提升业务敏捷性,简化整体数据架构,助力企业实现技术自主、业务创新和降本增效的目标。
在中国市场,TiDB 深入金融行业核心系统,在国有大行、股份制银行、城市商业银行、保险、证券等领域的应用规模和成效都实现了跨越式的发展。于此同时,有越来越多的制造、零售、物流、能源、餐饮、医疗、政企和互联网客户将 TiDB 部署在多种业务场景,2023 年多个接近 PB 级别的 TiDB 集群投产上线,极限场景 QPS 超 1,000,000。
在中国极限场景的打磨下,TiDB 具备了全球领先的技术能力。在 2023 年,TiDB 助力中国企业出海,在全球企业中也获得了越来越多的认可,新增付费客户近百家,来自美国、日本、印度、新加坡、印尼、泰国等国家和地区。此前,在 Gartner® 发布的云数据库市场领域 2024 Gartner® Peer Insights™ “Voice of the Customer” 报告中,PingCAP 获评「客户之选」,是唯一获得该称号的中国厂商。
6月27日,TiDB Cloud 发布向量搜索公测版,提供了功能全面且与 SQL 兼容的向量搜索解决方案,为 AI 应用开发者带来了前所未有的便利。开发者可以轻松地进行创新和扩展,而无需深入了解复杂的基础设施。展望未来,PingCAP 将持续投入中国和海外用户的高价值场景以及围绕 AI 的应用创新,推动全球数据技术的发展和进步。
声明:
Gartner, Market Share Analysis: Database Management Systems, Worldwide, 2023, 21 June 2024
Gartner, Voice of the Customer for Cloud Database Management Systems, 24 May 2024
Gartner 并未在其研究报告中支持任何供应商、产品或服务,也并未建议科技用户只选择该等获最高评分或其它称号的供应商。Gartner 的研究报告含有 Gartner 研究与顾问组织的意见,且该意见不应被视作事实陈述。就该研究报告而言,Gartner 放弃做出所有明示或默示的保证,包括任何有关适销性或某一特定用途适用性的保证。
GARTNER 和PEER INSIGHS是 Gartner, Inc. 和/或其关联公司在美国和国际上的商标和服务标识,并在获得许可的情况下在此使用。保留所有权利。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。