Vexata是一家还处于隐身模式的存储阵列初创公司,他们一直宣称自己的产品技术要比主流竞争对手以及VC青睐的Pure Storage的阵列“快25倍”。
不管怎样,这是他们在隐身阶段公布的信息,我们没有看到任何支撑业绩数据的产品。已经投资了Vexata的风投公司应该得到了更多详细信息,但是我们手头上现在还没有。
当然正如此前我们报道的,Pure Storage即将推出速度更快的阵列。
Vexata公司创始人、首席执行官Zahid Hussain曾经是EMC的SVP及GM,EMC的前工程副总裁,August Capital的资深企业家(EIR),前博科公司的工程副总裁。
Vexata官网
Vexata公司位于美国圣荷西,融资历史如下:
这样在走出隐身模式前的总融资金额就是4900万美元,融资模式和金额表明该公司一直在做硬件开发,投资方包括Lightspeed、Intel Capital、Mayfield和Redline Capital Management。
Lightspeed的网站上写到:“Vexata提供的数据系统能够让企业更快速、更智能地运营。我们的解决方案让客户不需要重写应用、调节配置和性能,增加缓存或者内存网格,或者应对复杂监控和故障排除等问题。只需要将Vexata的系统部署到新环境或者现有的数据密集型的环境中,你就可以在大规模的情况下享受前所未有的数据速度。”
Intel Capital表示:“Vexata是一家处于早期阶段的公司,开发具有颠覆性高性能的系统,用于分析、物联网和数据库应用。”
Vexata自己的网站上有一个文档,称他们正在大规模提高数据速度,使用一种分布式的软件架构和高性能网络。Vexata称,相比目前主流的全闪存存储阵列产品,这将使吞吐量提高10倍,延迟更低且成本更低。
Vexata在网站上写到:“用你的速度进行交易、响应和分析。我们发明了Real Time Architecture,所以你不必再等待了。”
Vexata表示,他们的技术意味着你可以“按需扩展容量和吞吐量,而不会造成中断”,并且“在你现有的环境中即插即用,不需要重新架构、分层或者调节。”
Vexata宣称,他们阵列的延迟具有“在大型数据集上具有无与伦比的响应表现”,它是架构附加的,支持最新的闪存和存储级内存SSD,也就是未来的NVMe驱动器、3D Xpoint SSD和DIMMs,此外它还具有“企业级可用性、数据保护和数据服务”。
NVMe SSD架构特性包括:
这里所说的架构附加是指光纤通道,Vexata在公告中提到了博科的32Gbps光纤通道:“Vexata的使命是为所有现代应用提供高速的、简单的、变革性的数据基础设施。博科的Gen 6光纤通道解决方案搭配Vexata的Real Time Architecture,企业将可以获得最高效的共享数据存储基础设施,拥有前所未见的性能表现。此外,Vexata的阵列正在获得博科Gen 6光纤通道组合的全面认证,让客户有信心知道他们正在采用当前最现代化的数据基础设施。”
Vexata的阵列支持Oracle、KX、SQL Server、DB2、MySQL、Splunk、Postgres SQL、SAP、Aerospike和SAS,使其看起来像是一个通用的数据访问加速器。据我们了解,目前已经有多家客户正在使用这项正在开发中的技术,有一家客户已经看到了最高的SAS分析基准测试数据。还有一家客户认为Vexata阵列的响应时间和吞吐量表现非常突出。运行SQL Server数据仓库分析和软件构建都比以前更快了。
评论
Vexata提到的NVMe SSD特性数据是大概的数据。一个英特尔DC P3700 NVMe SSD读访问延迟是200微秒,不同的写访问延迟,2800/2000 MB/s读写带宽。我们并没有从英特尔那里得到IOPS评分,我们认为Vexata可能会直接从SSD提供商那里获得这些数据并公布。
Pure Storage现在并没有使用NVMe SSD,但是不久的将来它也许会采用的。
可以想象,这种数据结果可以让它从风投那里获得资金。这看起来是一个类似DSSD的产品(最近该产品被Dell终止),但是带有数据服务,且价格更为实惠,而且通过使用光纤通道运行在现有的IT环境中。
Vexata提到博科最新发布的Gen 6光纤通道交换机意味着Vexata将在今年晚些时候走出隐身模式。如果它能够证明上述说法,那么将成为共享存储世界一家受欢迎的存储阵列公司。如果不能,那就会成为存储技术墓地里的又一个墓碑。
好文章,需要你的鼓励
这篇研究提出了OThink-R1,一种创新的大型推理模型,能够像人类一样在快速直觉思维和慢速深度推理之间自动切换。研究者发现,现有推理模型即使面对简单问题也会生成冗长的推理过程,导致计算资源浪费。通过分析推理轨迹并使用LLM评判员区分冗余和必要推理,OThink-R1能根据问题复杂度动态调整思考深度。实验表明,该方法平均减少了23.4%的生成文本量,同时保持或提高了准确率,代表了向更高效、更人性化AI推理系统迈出的重要一步。
这项研究提出了SHARE,一种新型文本到SQL修正框架,它利用三个小型语言模型(SLM)协同工作,实现高效精准的SQL错误修正。SHARE首先通过基础行动模型将SQL转换为行动轨迹,再经过模式增强模型和逻辑优化模型的层次化精细化修正。研究团队还创新性地提出了层次化自演化训练策略,大大提高了训练数据效率。实验结果表明,SHARE在多个基准测试上显著提升了SQL生成准确率,计算成本仅为传统方法的十分之一,并展现出强大的泛化能力,适用于各种生成器模型和SQL方言。
这项由香港大学和南京大学等机构研究人员联合开发的双专家一致性模型(DCM)解决了高质量视频生成中的效率难题。研究团队发现扩散模型蒸馏过程中存在优化冲突:早期阶段负责语义布局与运动,后期阶段关注细节精修,两者学习动态差异显著。DCM创新性地将这两个任务分配给不同的专家模型,通过参数高效的实现方式,使模型仅需4步即可生成接近50步原始模型质量的视频,大幅提升生成速度,为实用化AI视频创作铺平道路。
这项研究介绍了QARI-OCR,一种基于Qwen2-VL-2B-Instruct模型微调的阿拉伯文字识别系统。研究团队通过三阶段合成数据训练,成功解决了阿拉伯文字识别中的主要挑战:曲线连笔特性、上下文变化的字母形状和发音符号。QARI v0.2模型创下了0.061的字符错误率和0.160的单词错误率,超越了现有开源解决方案,为阿拉伯文化遗产的数字化保存提供了重要工具。