希捷此前一直在尝试将业务范围拓展至磁盘驱动器阵列领域,但却始终未能成功。如今该公司第二次买入磁盘阵列供应商——此轮尝试与上一回有何区别?当初的收购对象X-IO公司所带来的技术方案又将在其中扮演怎样的角色?
2000年,X-IO还是一家创建仅五年、当时名为Xiotech的供应商,专门推出虚拟化SAN存储阵列——希捷以总值3.6亿美元的股权将其收入囊中。而就在三年之后,也就是2003年,希捷又转手将其出售给风险投资商Oak Investment Partners公司。
时间又推移了五年,希捷将自家高级存储架构(简称ASA)部门出售给了Xiotech,并将这部分资源折价为4000万美元投资给Xiotech公司——此次融资由希捷公司董事长Steve Luczo牵头。
此举为Xiotech公司带来了ISE(即集成存储元素)技术与具备自我修复能力的智能磁盘托架,同时采用希捷打造的诊断软件与希捷磁盘设备。这些ISE“brick”具备高效密闭机制,无需工程师人为介入进行维护,而且提供长达五年的质保服务。希捷一直没能成功让任何存储OEM厂商接受上述成果,因此他们只能寄希望于Xiotech、祈祷后者能够充分发挥ISE技术的潜在能力,并借此节约下重新构建业务方案的资源投入。
Xiotech自那时开始已经取得了一系列进展,包括有针对性地推出一套混合SSD/磁盘版本以及一套全磁盘版本,而且在全球范围内向超过1200家客户售出了逾7000套设备。该公司名称也被变更为X-IO,目前主要面向VDI等利基市场——这完全是由于超ISE与ISE产品实在很难受到买家们的认可。
X-IO拥有的技术确实非常出色——智能存储托盘得到了业界的认可——尽管并未被视为尖端方案,但其仍然在竞争激烈的存储市场上占据了一席之地。目前X-IO正在迎头赶上,而且开始利用其VDI紧急响应计划作为原本失败项目的替代方案向市场发起冲击。
该公司在某种程度上可以说是由Oak Investment Partners所持有。在四位主要董事会成员当中,有三位与Oak紧密相关,而且看起来该公司在未来几年内似乎并无进行首轮公开募股的打算——除非其能够获得超出预期的惊人发展速度。如此看来,这家风险投资商安全获取回报的方式恐怕只剩下让X-IO接受整体收购了。
Xyratex收购与其它厂商
回顾完了X-IO的发展历程,下面我们再回到今天的主题——Xyratex。这是一家专门为测试设备以及超级计算/高性能计算ClusterStor阵列提供磁盘驱动器的制造商,主要以磁盘阵列托架业务为基础。希捷于2013年年末以3.74亿美元现金买入了Xyratex公司:讽刺的是,其具体数额与2000年收购Xiotech所支付的3.6亿美元基本相当,只不过当初是利用自家股权作为支付手段。
也就是说如今希捷已经与DDN、NetApp的E系列存储产品以及Panasas在高性能计算存储阵列业务领域构成竞争关系。这有什么问题呢?很简单,虽然这只是一项利基业务,但企业级大数据处理流程已经开始将高性能计算型技术方案引入进来,因此随着其发展成熟、该业务将逐渐摆脱利基而走向主流。DDN公司目前正全速进军这一市场。
如果想要将ClusterStor推向企业级大数据处理领域,希捷就必须在这方面占据竞争优势。他们拥有6TB磁盘驱动器以及以太网寻址Kinetic磁盘驱动器,但西数/HGST也具备同类存储方案,而且DDN、Panasas以及其它厂商完全能够直接使用这些驱动器产品。
企业级大数据存储阵列对于可靠性要求极高。客户们当然不希望因为阵列磁盘故障而导致运行在大数据基础之上的实时分析机制陷入缓慢甚至停滞状态。磁盘驱动器出了问题,容纳这些磁盘的托架自然也就无法正常起效。
X-IO磁盘托架当中的磁盘即使出现故障,托架整体仍然能够继续以额定性能正常工作。这很可能成为其核心竞争优势。
希捷有没有可能将X-IO那“牢不可破”的存储brick作为针对其ClusterStor阵列的良好补充?我们又是否会看到希捷以OEM形式实现X-IO技术方案,从而保障自身健康发展?最后,ClusterStor阵列在X-IO托架的配合下能否成为一套固若金汤的大数据存储阵列?
最终决定整套方案能否令人满意以及ISE拥护者反馈意见的,将是ISE技术在回归希捷老家后的实际表现。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。