昆腾公司(NYSE:QTM)近期宣布推出专用4K视频架构,从充分利用公司采用StorNext®、基于磁盘和闪存的工作流存储系统,以期最大程度提高4K数据流数,并根据用户的特定需求来优化性能。根据对实际指标进行的详尽测试,新的4K架构巩固了昆腾在媒体工作流领域性能的长期领导地位,并让媒体机构更明智地投资4K存储基础设施。
专用4K视频解决方案的需求
4K已成为许多媒体公司存储采购决策的主要驱动因素,但是找到最佳存储介质和系统配置是一项具有挑战性的任务。鉴于不同媒体机构采用的各种数据流数和媒体格式,什么类型的存储能够根据具体工作流或用例来驱动性能、容量和成本的最佳组合?这个问题的答案并不一定明显或直观。为了回答这个问题,昆腾进行了测试,不仅提供了完整的性能特点,也为不同的媒体类型确定了最佳硬盘类型。
媒体工作流中闪存所发挥的作用
闪存可以提供巨大的性能,而昆腾测试显示,闪存存储在大量的压缩数据流时,这种情况下可充分利用闪存的随机I/O性能,以及对容量需求不敏感的媒体工作流,来提供卓越的价值。另一方面,由于未压缩格式的本质,如果有大量未压缩的流并且容量有限,那么闪存并没有显著提高性能。StorNext性能优化同样适用于闪存和磁盘,从而让用户能够自由选择最适合其性能、容量和成本要求的基础设施。
最大程度实现4K存储性能和价值
昆腾的测试包含14个使用六种媒体格式的不同存储配置,所有这些测试都在严格、现实条件下进行。例如,阵列占容量的85%,并使用高质量RGB数据,而不是其它评估所使用的不到30%的YUV数据。从这个测试中,昆腾确定其支持StorNext的磁盘驱动器和阵列的流数和性能;哪种情况下闪存是成本效益最高的解决方案,能够实现高性能,更高分辨率的工作流程;哪种情况下灵活磁盘配置能够以更少的成本提供更高的性能--最终创建了4个4K可参考架构。根据采用StorNext的Xcellis?存储系统,这些可参考架构针对特定流数调整了大小,并且能够按需扩展,以便提供更多容量和性能。
• StorNext Base 4K--适用于使用压缩格式的小型工作组,最多支持15流的压缩和2流全口径10位未压缩4K。
• StorNext High Capacity 4K--专门用于那些主存储需要更多容量的组群,最多支持24流的未压缩和6流的全口径10位未压缩4K。
• StorNext Performance Disk 4K--如果需要更高流数和容量,那么它就是合适的起点,最多支持28流压缩和5全口径10位未压缩4K。
• StorNext All Flash 4K--为高价值内容制作提供给最大压缩流数和未压缩支持,最多支持66流的压缩和6流的全口径10位未压缩4K。这种全闪存配置将于2017年NAB展会期间在昆腾展台(#SL5810)与观众见面。
支持的言论
Nick Gold,Chesapeake Systems公司首席收入官
"多年来,我们根据昆腾的技术实力以及在媒体工作流方面的专长而为我们的客户代理昆腾产品。我对昆腾公司进行的4K测试以及全新支持StorNext的可参考架构感到很激动,因为我对客户的推荐都基于现实数据,客户非常看重这一点。这极为可贵!"
Dave Frederick,昆腾公司媒体与娱乐高级总监
"我们对4K媒体工作流和应用进行了详尽的测试。可以说,对于存储在4K环境中的反应,我们得到了业界最好的评价。凭借这些知识,我们可以就'实施4K工作流程时达成目标的最有效方式'而为客户提供一个明确的观点。通过把我们的发现转化成易于部署、扩容的参考设计,我们让客户能够轻松实施4K基础设施,并打消对现实性能和可扩展性的疑虑。"
好文章,需要你的鼓励
Coursera在2025年连接大会上宣布多项AI功能更新。10月将推出角色扮演功能,通过AI人物帮助学生练习面试技巧并获得实时反馈。新增AI评分系统可即时批改代码、论文和视频作业。同时引入完整性检查和监考系统,通过锁定浏览器和真实性验证打击作弊行为,据称可减少95%的不当行为。此外,AI课程构建器将扩展至所有合作伙伴,帮助教育者快速设计课程。
腾讯ARC实验室推出AudioStory系统,首次实现AI根据复杂指令创作完整长篇音频故事。该系统结合大语言模型的叙事推理能力与音频生成技术,通过交错式推理生成、解耦桥接机制和渐进式训练,能够将复杂指令分解为连续音频场景并保持整体连贯性。在AudioStory-10K基准测试中表现优异,为AI音频创作开辟新方向。
英国政府研究显示,神经多样性员工从AI聊天机器人中获得的收益远超普通同事。在Microsoft 365 Copilot试点中,神经多样性员工满意度达90%置信水平,推荐度达95%置信水平,均显著高于其他用户。患有ADHD和阅读障碍的员工表示AI工具为他们提供了前所未有的工作支持,特别是在报告撰写方面。研究表明,AI工具正在填补传统无障碍技术未能解决的职场差距,为残障人士提供了隐形的工作辅助。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。