随着SC4020头顶“戴尔存储”品牌的大旗在全球范围内上市,该公司似乎有意将其原本独立的EqualLogic与Compellent网络存储阵列整理成单一品牌及产品技术。
与此同时,戴尔也正在着手以OEM方式推动其服务器附加存储技术的普及。
根据我们掌握的情况,戴尔旗下的其它存储技术及品牌,例如Ocarina数据压缩与Exanet向外扩展文件管理器等,也将被划归戴尔存储品牌之下。
SC4020是一款2U体积、可容纳24块驱动器的存储区域网络(简称SAN)阵列,其最高原始容量可达400TB。SC4000系列还将包含其它机型,这代表着Compellent技术将被从原本的企业级层面下移至中端市场范畴。它们可以使用磁盘驱动器、闪存与磁盘的结合方案(即混合存储机制)或者纯闪存驱动器。戴尔公司宣称,“客户可以获得令人印象深刻的全闪存性能体验——而其使用成本则比目前市面上的其它全闪存阵列低达72%。”
在SC4020当中运行着的是EqualLogiciSCSI访问堆栈与Compellent Storage Center v6.5软件。戴尔方面表示,目前还没有哪家公司能在SC4020的价格区间内推出光纤通道阵列。
根据我们的理解,目前的状况表明戴尔存储品牌将分三个步骤完成建立,分别为:获取、整合与加速。
获取阶段现在已经完成,我们看到EqualLogic、Compellent、Exanet、Ocarina以及RNA都成为戴尔存储品牌旗下的成员。
整合阶段也已经接近尾声,其中EqualLogic与Compellent产品线被混搭成单一块与文件存储架构。目前戴尔方面还没有放出关于对象存储架构组件的具体消息。
这将使得戴尔最大程度利用其研发投入,同时加快整体开发的实施进度。我们还发现,将多种独立存储产品的相关设施合并成少数几种方案有可能降低戴尔的产品工程及开发成本。
在加速阶段,我们将迎来以下几个步骤:
客户的现有EqualLogic与Compellent产品将获得向融合型技术产品线的迁移指导。
彼此独立的融合型系统
随着EqualLogic、Compellent以及其它戴尔存储技术被合并为单一共享式(即联网)存储产品线,该公司正着眼于外部并利用其OEM合作协议打造出更多专用及应用程序指向型服务器/存储设备。
我们看到的第一个实例就是戴尔宣布即将面世的XC系列向外扩展方案。这套方案被称为超融合型服务器/存储与网络设备,采用Nutanix软件。客户将能够在其上运行任何虚拟机与虚拟机管理程序,这是因为Nutanix的方案并不会对管理程序类型作出要求,而存储机制将被汇聚在一组XC设备当中。
在此之中,我们还发现了戴尔自己的的虚拟SAN产品——目前它已经能够支持VMware的VSAN。
第二款专用设备则是戴尔的Accleration Appliance for Databases(即面向数据库的加速设备,也许会被简称为DAAD),这台服务器采用Fusion-io的ION Accelerator技术——基本上相当于接入多块Fusion的ioMemory卡。该设备能够运行HANA或者SQL Server,其速度表现实在是非常、非常出色。
戴尔目前正通过OEM合作协议将结合了Nutanix软件与Fusion-io硬件/软件的产品推向特定存储利基市场:Nutanix负责处理虚拟SAN存储与超融合任务,而Fusion-io则通过将应用程序负载运行在固态硬盘之上来解决传统磁盘访问延迟过高的难题。
二者都能够与服务器存储机制紧密对接,并与戴尔存储产品线下的网络存储产品保持着定位上的差异。
评论
作为单方面评论,我们认为除了SanDisk这位已经确定的Fusion-io买家之外,戴尔其实也有理由对收购Fusion-io抱持深厚兴趣——虽然这项决议最终遭到了否定。在财务角度上讲,我们认为戴尔公司可能不打算在刚刚投入大量资金进行私有转制之后再掏出10亿美元这笔巨款。
新的戴尔存储方案正在兴起,其一方面坚定采用完全由戴尔自家打造的网络存储架构与技术储备、另一方面则以OEM合作协议为基础构建起丰富的服务器附加存储产品名单。
好文章,需要你的鼓励
VisTA是一种新型强化学习框架,使视觉AI能够自主探索、选择和组合多种视觉工具。与传统方法不同,VisTA无需人工监督,通过反复尝试学习哪些工具最有效。研究团队在ChartQA、Geometry3K等测试中证明,VisTA显著优于训练免费基线,特别是在分布外样本上表现更佳。其核心创新在于使用群体相对策略优化算法,让AI代理能够根据实际性能而非预设规则来选择工具,为未来发展更灵活的视觉推理系统铺平了道路。
这项研究引入了DFIR-Metric,首个专门评估大语言模型在数字取证与事件响应领域能力的基准测试集。由阿布扎比技术创新研究院领导的国际团队开发的测试包含三个部分:700道理论多选题、150个CTF风格的实际挑战,以及500个基于NIST标准的磁盘与内存取证案例。研究测试了14种顶尖大语言模型,发现虽然它们在理论知识方面表现良好(最高达92.75%准确率),但在需要多步推理的实际取证任务中仍存显著差距(最佳模型仅能解决28%的任务)。
Meta研究团队发现大语言模型在复杂推理任务中,更短的"思考链"反而能带来更高的准确率。研究人员通过三个顶级语言模型的实验证明,选择最短思考链可以比随机选择提高18.8%准确率,比最长思考链提高34.5%准确率,同时显著减少计算资源消耗。基于此,他们提出了"short-m@k"方法,只从最先完成的m个思考中选择答案,既能提高模型表现又能节省高达40%的计算资源。这一发现颠覆了"思考越多越好"的传统观念,为更高效的AI推理开辟了新路径。