Vexata是一家还处于隐身模式的存储阵列初创公司,他们一直宣称自己的产品技术要比主流竞争对手以及VC青睐的Pure Storage的阵列“快25倍”。
不管怎样,这是他们在隐身阶段公布的信息,我们没有看到任何支撑业绩数据的产品。已经投资了Vexata的风投公司应该得到了更多详细信息,但是我们手头上现在还没有。
当然正如此前我们报道的,Pure Storage即将推出速度更快的阵列。
Vexata公司创始人、首席执行官Zahid Hussain曾经是EMC的SVP及GM,EMC的前工程副总裁,August Capital的资深企业家(EIR),前博科公司的工程副总裁。
Vexata官网
Vexata公司位于美国圣荷西,融资历史如下:
这样在走出隐身模式前的总融资金额就是4900万美元,融资模式和金额表明该公司一直在做硬件开发,投资方包括Lightspeed、Intel Capital、Mayfield和Redline Capital Management。
Lightspeed的网站上写到:“Vexata提供的数据系统能够让企业更快速、更智能地运营。我们的解决方案让客户不需要重写应用、调节配置和性能,增加缓存或者内存网格,或者应对复杂监控和故障排除等问题。只需要将Vexata的系统部署到新环境或者现有的数据密集型的环境中,你就可以在大规模的情况下享受前所未有的数据速度。”
Intel Capital表示:“Vexata是一家处于早期阶段的公司,开发具有颠覆性高性能的系统,用于分析、物联网和数据库应用。”
Vexata自己的网站上有一个文档,称他们正在大规模提高数据速度,使用一种分布式的软件架构和高性能网络。Vexata称,相比目前主流的全闪存存储阵列产品,这将使吞吐量提高10倍,延迟更低且成本更低。
Vexata在网站上写到:“用你的速度进行交易、响应和分析。我们发明了Real Time Architecture,所以你不必再等待了。”
Vexata表示,他们的技术意味着你可以“按需扩展容量和吞吐量,而不会造成中断”,并且“在你现有的环境中即插即用,不需要重新架构、分层或者调节。”
Vexata宣称,他们阵列的延迟具有“在大型数据集上具有无与伦比的响应表现”,它是架构附加的,支持最新的闪存和存储级内存SSD,也就是未来的NVMe驱动器、3D Xpoint SSD和DIMMs,此外它还具有“企业级可用性、数据保护和数据服务”。
NVMe SSD架构特性包括:
这里所说的架构附加是指光纤通道,Vexata在公告中提到了博科的32Gbps光纤通道:“Vexata的使命是为所有现代应用提供高速的、简单的、变革性的数据基础设施。博科的Gen 6光纤通道解决方案搭配Vexata的Real Time Architecture,企业将可以获得最高效的共享数据存储基础设施,拥有前所未见的性能表现。此外,Vexata的阵列正在获得博科Gen 6光纤通道组合的全面认证,让客户有信心知道他们正在采用当前最现代化的数据基础设施。”
Vexata的阵列支持Oracle、KX、SQL Server、DB2、MySQL、Splunk、Postgres SQL、SAP、Aerospike和SAS,使其看起来像是一个通用的数据访问加速器。据我们了解,目前已经有多家客户正在使用这项正在开发中的技术,有一家客户已经看到了最高的SAS分析基准测试数据。还有一家客户认为Vexata阵列的响应时间和吞吐量表现非常突出。运行SQL Server数据仓库分析和软件构建都比以前更快了。
评论
Vexata提到的NVMe SSD特性数据是大概的数据。一个英特尔DC P3700 NVMe SSD读访问延迟是200微秒,不同的写访问延迟,2800/2000 MB/s读写带宽。我们并没有从英特尔那里得到IOPS评分,我们认为Vexata可能会直接从SSD提供商那里获得这些数据并公布。
Pure Storage现在并没有使用NVMe SSD,但是不久的将来它也许会采用的。
可以想象,这种数据结果可以让它从风投那里获得资金。这看起来是一个类似DSSD的产品(最近该产品被Dell终止),但是带有数据服务,且价格更为实惠,而且通过使用光纤通道运行在现有的IT环境中。
Vexata提到博科最新发布的Gen 6光纤通道交换机意味着Vexata将在今年晚些时候走出隐身模式。如果它能够证明上述说法,那么将成为共享存储世界一家受欢迎的存储阵列公司。如果不能,那就会成为存储技术墓地里的又一个墓碑。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。