昆腾公司宣布对Scalar i6000磁带库进行重大更新,将磁盘密度加倍以提供企业级市场上最佳的LTO存储密度,增加了独特的RESTful Web服务管理功能,并提供最高能效的80-Plus认证电源。这些强化功能是该磁带库上市以来最新创新,为当今要求苛刻的分层存储工作流带来功能最丰富、技术最先进的企业级磁带库。
最高的LTO存储密度
新的昆腾Scalar i6000设计在19英寸机架空间中把全高LTO驱动器的数量加倍,在相同的空间内实现双倍性能或数据访问。这补充了这个磁带库的高密度扩展模块,使其成为市场上整体LTO存储密度最高的系统。此外,Scalar i6000独特的模块化架构在不牺牲性能的情况下提供高密度。在小空间内寻求极高性能的用户,例如在小窗口内备份大型数据库,可以为Scalar i6000配置最高数量的驱动器。
昆腾计划在2016年扩展Scalar i6000的容量,在单个系统内扩展到超过15,000个或大于225 PB的插槽。目前投资于这款磁带库的客户与合作伙伴,将在其归档数据增长时感受到更高容量带来的益处。
综合的RESTful Web服务和最高能效的使用
新增RESTful Web服务让昆腾Scalar i6000用户能够实现自动化配置和管理,从而节省时间和金钱。通过这种改进,Scalar i6000现在为LTO磁带库提供最全面的Web服务套件,原本在图形用户界面中完成的一切工作现在都可以通过Web服务实现。这个独一无二的用户界面还通过新的流线型布局设计大幅简化,旨在减少点击次数并实现更高效、精确地显示信息。
作为唯一配备通过80 PLUS®认证电源的磁带库,Scalar i6000具有最高的能效并加强了磁带作为成本最低、功耗最低的存储技术的地位。
为现代工作流而优化
Scalar i6000拥有最全面的功能,并对广泛的使用场景和环境进行了优化:
· 媒体与娱乐:多媒体的活跃归档需要大容量和高性能,以便获取最大化的内容收益。通过可用密度最高的LTO存储,Scalar i6000和StorNext AEL6000能够满足大容量和高性能的需求,同时确保系统可用性和完整性,让归档内容可以按需访问。其他独特的特性,如针对数据可用性的扩展数据生命周期管理(EDLM)和自动出库的Active Vault,对于媒体工作流而言尤其重要。
· 视频监控:因为磁带归档可以在最低的空间内扩展,运营成本低,同时保护存储的视频内容的完整性,随着高清摄像头的数量不断增加以及视频保留时间不断延长,磁带归档至关重要。Scalar i6000为所有这些要求提供同类最佳的功能。对于大型视频归档,新的驱动器扩展模块设计可与高密度存储模块结合使用,创建高性能、高度可用的活跃归档。
· 数据中心归档:随着数据中心内非结构化内容的数量和价值都在提升,IT部门利用磁带归档的分层存储来重新获得对预算的控制力,同时保持对归档数据的访问。Scalar i6000卓越的密度、管理和效率,为归档层提供较低的资本和运营成本。
· 高性能计算:对于归档并行文件系统数据、地理空间数据和其它高性能计算应用等高负载循环的使用场景,新的Scalar i6000模块化设计和独特的双机械手方法让系统能够为优化的性能进行配置。
引言
Brian Pickett,Hitachi Data Systems项目交付经理:“昆腾Scalar i6000让我们能够经济地实施智能数据归档战略。通过增强的存储密度、易用性和能效,对于每个公司都需要管理的数据流,Scalar i6000无疑是一个更有吸引力的解决方案。”
Kurt Klein,Computer Media Technologies首席执行官:“自从发布以来,昆腾Scalar i6000的功能不断增加。昆腾的持续创新造就了最现代化、技术上先进的企业磁带库,满足客户当前要求苛刻的工作流。”
Robert Clark,昆腾产品运营高级副总裁:“昆腾是开放系统磁带自动化市场的领导厂商,我们理解客户以及他们的发展方向,并提供解决方案来满足他们不断变化的要求。昆腾Scalar i6000拥有最全面的特性,为各种使用场景和环境进行了优化。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。