戴尔发布的一份白皮书评估了在PowerFlex系统上运行的Regatta数据库,发现这是一个变革性系统,解决了传统数据库的固有限制,包括分片、复杂性、成本、性能和扩展等问题。
Regatta数据库特性与优势
Regatta生产其同名的横向扩展事务型(OLTP)、分析型(OLAP)关系型(OLxP)和向量数据库,具有扩展到半结构化和非结构化数据的能力。它是Postgres的直接替代品,可以扩展到数万个节点。
PowerFlex是戴尔的超融合基础设施(HCI)产品,作为仅支持vSphere的VxRail的替代方案,支持包括VMware在内的各种虚拟化管理程序以及Kubernetes。它配备软件定义的横向扩展块存储,同时也支持文件服务。系统提供单一全局命名空间以增强容量、统一存储池管理,并可部署在分解式(独立计算和存储层)架构中。冗长的计算以大规模并行和分布式方式在潜在的大量节点上执行,从而实现显著更快的执行速度。PowerFlex软件存储服务可在AWS和Azure中部署。
性能测试结果分析
这份42页的"戴尔PowerFlex上的Regatta数据库性能和最佳实践"白皮书详细介绍了事务型、分析型和Kafka流数据性能测试。事务测试展示了近100万IOPS的总物理读写性能。一旦测试配置中的所有8个节点完成短暂的事务加速阶段,在IOPS和带宽方面就实现了稳定的性能表现。
在分析工作负载测试中,在测试的9个复杂分布式查询中,5个计算密集型查询随着集群规模的增加展现出线性可扩展性。其他4个存储密集型查询在集群扩展中没有显示出额外的可扩展性。4节点Regatta集群配置完全饱和了底层可用的PowerFlex存储,因此仅添加计算节点无法产生进一步的性能提升。
由于PowerFlex支持动态扩展和线性扩展,将PowerFlex存储节点数量翻倍将导致相应的带宽翻倍。
Kafka流数据测试显示成功将10亿行数据摄入Regatta,每5秒间隔消费632,520,591条消息。使用单个Kafka客户端时,向Regatta表的行插入率超过每秒100万行。在向Regatta数据库表插入数据期间,每个PowerFlex卷的平均写入延迟为0.15毫秒,平均写入带宽为138 MB/s。使用多个Kafka客户端可能会增加注入Kafka Connect集群的负载,从而也能提升数据库端的性能。
白皮书总结道:"Regatta高性能分布式数据库能力与戴尔PowerFlex高性能存储基础设施的结合提供了变革性解决方案。这种组合方法解决了传统数据库的固有限制(包括分片、复杂性、成本、性能和扩展),并利用两种技术的优势,为高性能事务型和分析/AI工作负载提供强大、可扩展且高效的数据库架构。"
Q&A
Q1:Regatta数据库有什么特别之处?
A:Regatta是一个横向扩展的事务型、分析型关系型和向量数据库,具有扩展到半结构化和非结构化数据的能力。它是Postgres的直接替代品,可以扩展到数万个节点,能够解决传统数据库在分片、复杂性、成本、性能和扩展方面的限制。
Q2:PowerFlex与Regatta组合的性能表现如何?
A:测试结果显示,事务测试实现了近100万IOPS的总物理读写性能,Kafka流数据测试成功摄入10亿行数据,行插入率超过每秒100万行。在分析工作负载中,5个计算密集型查询展现出线性可扩展性,平均写入延迟仅为0.15毫秒。
Q3:PowerFlex存储基础设施有什么优势?
A:PowerFlex是戴尔的超融合基础设施产品,支持多种虚拟化管理程序和Kubernetes,配备软件定义的横向扩展块存储和文件服务。它提供单一全局命名空间、统一存储池管理,支持动态扩展和线性扩展,存储节点翻倍可实现带宽相应翻倍。
好文章,需要你的鼓励
微软正式确认配置管理器将转为年度发布模式,并将Intune作为主要创新重点。该变化将于2026年秋季生效,在此之前还有几个版本发布。微软表示此举是为了与Windows客户端安全和稳定性节奏保持一致,优先确保安全可靠的用户体验。配置管理器将专注于安全性、稳定性和长期支持,而所有新功能创新都将在云端的Intune中进行。
这项由圣母大学和IBM研究院联合开展的研究,开发出了名为DeepEvolve的AI科学助手系统,能够像人类科学家一样进行深度文献研究并将创新想法转化为可执行的算法程序。该系统突破了传统AI要么只能改进算法但缺乏创新、要么只能提出想法但无法实现的局限,在化学、生物学、数学等九个科学领域的测试中都实现了显著的算法性能提升,为AI辅助科学发现开辟了新的道路。
人工智能初创公司aiOla推出基于流匹配训练技术的语音AI模型Drax,挑战OpenAI和阿里巴巴等巨头。该模型重新定义语音算法训练方式,能在嘈杂环境中准确识别语音,兼顾速度与准确性。相比OpenAI的Whisper和阿里巴巴Qwen2,Drax采用并行流处理技术,速度提升32倍,词错误率仅7.4%。该模型已在GitHub开源,提供三种规模版本。
卡内基梅隆大学研究团队通过3331次大规模实验,系统揭示了代码训练如何提升AI推理能力。研究发现,代码的结构特性比语义内容更重要,适当的抽象形式(如伪代码)可以达到与原始代码相同的效果。不同编程语言产生差异化影响:低抽象语言有利于数学推理,Python更适合自然语言任务。这些发现为AI训练数据的科学化设计提供了重要指导。