逐步从磁带低谷中走出来的昆腾,在2016财年伊始连发组合拳,为其StorNext文件管理与归档产品组合添加新的方案层,使客户能够利用Arkivio软件选择主存储文件。
近日,昆腾在北京举行媒体发布会,主打三个新的增强型产品组合:Artico,智能NAS设备可把数据分层存储到Q-Cloud、Lattus对象存储或Scala磁带库中;DXi with Arkivio,可在同一个设备上支持数据备份和归档;新的Lattus存储节点,提高了对象存储密度并降低每TB成本。
Artico:借StorNext之力玩转NAS智能数据分层
这次最引人关注的,是昆腾Artico近线NAS,这款设备将充当指向对象、磁带或者云归档存储体系的网关。
Artico主要设计思路是,尽可能帮助客户降低对主存储方案的依赖性,从而将重复性较高的内容保存在归档系统内,最终实现运营成本削减。很明显,这一举措是为了应对非结构化数据的迅速膨胀。
Artico实际上是一套运行有StorNext的文件管理NAS设备,拥有自己的磁盘存储机制并能够对文件分层保存至后端目标处,例如昆腾自家的Q-Cloud归档云、Lattus对象存储阵列、采用LTO磁带及LTFS的Scalar磁带库。
借助StorNext管理策略,Artico会决定将哪些文件发送至何处,据此创建出多个归档目标以及归档副本,从而实现必要的数据保护效果,针对从小型环境到拥有PB级数据的环境。从功能特性来看,Artico最多可支持10亿份文件,33TB磁盘存储空间,可扩展至73TB,并且在本地支持LTFS。
那么问题来了,客户应当使用Artico还是完整的StorNext系统呢?
StorNext主要提供主存储机制、扩展在线存储(即Lattus对象存储)、磁带归档以及Q-Cloud存储方案,整套库通过元数据控制器实现内容访问,适合用于处理元数据及娱乐行业等需要根据数据访问需求及时间将多部分相关视频文件保存至不同存储层内的复杂任务流程,同时也在生命科学以及地震数据等领域广受好评,而且具备对海量文件存储以及旧有文件归档需求的解决能力。
Artico则可被大体视为StoreNext的精简版本,从而充当数据管理需求复杂性较低的相对简单任务流程的归档方案。
DXi for Arkivio:以软件为切入点完成第三代部署
对这个硬件加软件的组合,昆腾给出的定位是,通过让客户对备份和主动归档存储使用相同的设备,帮助控制不断增长的存储成本。
如上图所示,在配合DXi时,Arkivio会利用由Rocket提供的Arkivio软件将来自主存储阵列的文件转移到Artico设备、或者具备重复数据删除功能的备份磁盘阵列当中,并在其中提供一个专门的归档分区。
通过这种方式,DXi4700以及DXi6900阵列皆受到支持。很明显,大家需要在阵列之上为归档数据以及备份数据分区预留充足的存储空间。
Autostor还能够在无需使用备份软件的前提下实现文件归档(且保留文件的原有格式),并允许用户在多种基于磁盘的归档目标之间做出选择; 大家一方面可以使用DXi 4700或者6900阵列,另一方面则可以选择Lattus对象存储方案。
昆腾宣称,通过这种Arkivio软件与DXi阵列结合的方式,可以把每TB非结构化数据的存储成本降低80%。因此,大家可以利用备份软件管理结构化数据,利用Arkivio打理非结构化数据,特别是Arkivio软件能够确切识别出主存储阵列中适合处理的非结构化数据。
通过这张PPT,昆腾提出了所谓的第三代存储战略,也就是提倡结构化数据与非结构化数据的分离,并在备份的同时将一部分拷贝搬到远端或者云端。,而这次推出的Artivio软件已经有了能与之接口的选项,有助于完成第三代部署。
Lattus:新对象存储打破密度局限
这次昆腾还扩展了Lattus对象存储平台的存储容量,推出的S30存储节点采用6TB驱动器(也支持4TB),原始容量最高可达到72TB。据昆腾称,S30使存储密度增加了50%,而每TB成本价格降低15%。
S30采用与S20相同的机架,但是S20采用的是4TB驱动器,原始容量最高为48TB。目前Lattus有20节点和6节点两种配置,支持6TB驱动器的20节点系统起价为64万美元,6节点配置起价为22万美元,4TB驱动器的20节点配置起价为20万美元。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。