2015年10月27日 -- 昆腾公司(NYSE: QTM)今天宣布推出为严苛工作流而设计的,新一代Xcellis® 高性能存储系统。昆腾Xcellis高性能工作流存储系统可以优化要求苛刻的工作流程,更具洞察力,并赋能企业实现更大的成功。该新系统是针对非结构化数据的爆炸式增长而设计开发的,通过让IT专业人士和业务部门主管更快速、轻松且经济地分享和利用这些数据,进一步发挥数据战略性价值。依靠基于昆腾的StorNext横向扩展存储平台及其行业领先的流性能,Xcellis可以作为独立系统部署或作为分层存储环境(包含对象存储、磁带和云技术)的主存储。

昆腾Xcellis工作流存储
对于视频制作、情报、监控和技术应用(例如基因学、医疗影像、石油天然气勘探)等数据密集型行业的客户,实现业务和任务目标取决于从数字资产中获取价值的能力。然而,一个重大挑战是如何存储和管理这些数据,以高性价比的方式满足端到端工作流程中的性能和访问需求。虽然横向扩展NAS产品已经让企业能够充分利用自己的IP基础架构,但这些产品一直无法满足越来越大的数据文件和更高的内容分辨率,对性能和可扩展性更高的要求。昆腾Xcellis克服了这些限制并提供综合的解决方案,在一个系统中自动化和简化数据管理、提供独特的融合架构组合、持续的可扩展性和统一的访问。
融合架构
作为新系统核心的全新的Xcellis Workflow Director,是融合了计算、网络和文件系统的控制器,密切集成和简化了StorNext环境的功能。这款Workflow Director:
• 把多个功能整合到一个系统中,简化整体存储架构、运营、管理以及对第三方应用的访问;
• 控制文件系统元数据和客户端对SAN、分布式LAN客户端(DLC)和NAS连接的访问(DLC是昆腾开发的一个专用连接选项);
• 直接的文件访问便于应用程序使用;
• 帮助用户从自动分层存储中获益。
持续的可扩展性
Xcellis大幅提升了容量和可扩展性,实现更高的效率和经济效益:
• StorNext可以处理的文件数量几乎翻了一番,最多100亿个文件中14亿归档管理文件;
• 用户一开始可以部署一个小系统,随后平滑地扩展到最大的系统,而无需更换最初的硬件或拆卸系统;
• 利用昆腾的QXS磁盘存储阵列,Xcellis提供可以独立扩展的更高容量和带宽。
简而言之,与横向扩展的NAS系统所不同的是,Xcellis让企业能够持续地扩展存储,并为更多的用户数据访问保持持续一致的性能,只需为所需的容量或性能付费,避免额外的计算能力。
统一的访问
Xcellis提供内置的统一数据访问,包括:
• 高性能光纤通道SAN连接
• DLC连接,在以太网上实现"比以太网更高"的性能
• 直接连接NAS
Xcellis通过为用户的性能要求匹配最合适的连接,来支持工作流的每个阶段。更注重性能的客户将受益于高速SAN连接,数据不太密集的操作可以通过NAS连接在以太网上完成。Xcellis整合了所有这些元素,并通过单一命名空间简化了共享访问。不管有多少个文件系统,都让每个用户能够在适合相关工作的性能下访问所需的文件。此外,由于DLC和NAS连接是单独授权的选项,用户只需为基础设备和所需的连接类型付费。
Xcellis销售情况
Xcellis即日起可作为独立系统供昆腾横向扩展存储市场的客户购买,或作为面向媒体与娱乐行业的StorNext Pro™ 解决方案的可定制配置。此外,它将是昆腾未来几周发布的监控解决方案系列新品的基础。Xcellis将于下月末开始发货,包括最新版StorNext 5软件。
引言
Scott Sinclair,企业战略集团分析师
“昆腾过去几年大幅扩大了其横向扩展存储产品组合,聚焦于客户面临的管理4K视频,以及为归档数据经济地利用云等重大挑战。Xcellis的本质就是简化 -- 昆腾正在把高性能工作流存储的最重要功能集成到一个易于管理且高度可扩展的解决方案中。”
Geoff Stedman,昆腾StorNext解决方案高级副总裁
“昆腾的其中一个主要优势是让企业能够捕捉、管理和分享数据。从加强创意,到获得更深入的洞察以做出新的发现,从而充分发挥数据的价值。通过推出Xcellis,我们把这种专业知识扩展到更广泛的客户,提供由我们行业领先的StorNext平台支持的解决方案,为当今要求最为苛刻的工作流程提供独一无二的性能、访问和成本效益。”
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。