StorONE 推出了由 AI 驱动的 TierONE 软件升级版本,同时通过 SnapONE 增强了数据保护能力。
该公司表示,客户无需全闪存阵列 (AFA) 系统即可获得快速性能,称其新版软件可以"通过基于访问频率的自动数据分层来提供卓越的性能和成本节省"。
去年 6 月,该公司在其 v3.8 S1 软件版本中发布了更快的自动分层和 vSNAP 功能。现在,他们通过 v3.9 版本进一步改进了这些功能,增加了更快的 NAS 性能、自动存储单元配置、现代化的图形界面,以及可定制的 S1 运营 PDF 报告计划。
CEO Gal Naor 表示:"StorONE 首次提供了一个存储冷数据的解决方案,满足了三个看似矛盾的需求:极高的写入性能、低成本的长期数据存储,以及数据的即时可用性。"
S1 通过由全闪存和混合闪存+磁盘节点组成的集群阵列,提供高性能且经济的块存储、文件和对象存储。TierONE 在 SSD 和磁盘驱动器层之间动态优化数据放置,提供实时洞察和建议,"为非活动数据节省超过 50% 的存储成本,同时不影响性能,在后台管理层间数据移动,并允许用户为闪存层中的活动数据配置闪存使用情况。"具体实现方式尚未披露。
S1 软件已经可以将应用程序的随机写入转换为顺序写入,当数据移动到较低且较慢的层(如 HDD)时。这些数据写入磁盘的速度比随机写入更快,写入速度可达 18 GBps。对 SSD 的写入经过特殊管理,以减少后续可能导致额外写入的垃圾回收活动,避免 SSD 速度降低。
Naor 说:"在此之前,客户别无选择,要么被迫多付 2-3 倍的价格购买 AFA 系统,要么忍受离线媒体极长的恢复时间。" S1 可以提供从磁盘媒体恢复的能力。
SnapONE "通过文件级跟踪和恢复单个文件、简化恢复流程以及快照摘要,革新了数据保护快照技术。"这提供了更好的勒索软件攻击恢复能力。
v3.9 实现了完整数据服务配置的自动化,如 NAS、块存储或对象卷,实现了简化管理。通过这种自动化,"应用程序管理员无需技术专业知识即可处理卷创建"。
StorONE 表示,根据客户反馈重新设计的用户友好界面提升了工作流程和可用性。可以配置并自动发送详细的自定义 S1 运营报告,节省管理时间。
这个软件版本应该能够改善 StorONE 客户的 S1 运营体验,并为其经销商在与 Dell、HPE、Hitachi Vantara、Huawei、IBM、Lenovo、NetApp 和 Pure Storage 等 AFA 竞争对手竞争时提供新的竞争优势。当 StorONE 的软件可以从混合闪存+磁盘系统中提升额外性能时,就不需要在全闪存系统上投入大量资金。即使您确实需要全闪存系统,StorONE 表示它也能让系统运行得更快。
Dragon Consulting 的 CEO Marc Staimer 对此版本发表了看法:"StorONE 的自动分层解决方案以 Tier-2 的成本提供 Tier-1 的性能。通过动态重新分配资源,该平台使企业能够最大限度地提高效率和可靠性,在存储市场中提供卓越的价值。"
好文章,需要你的鼓励
这项研究由新加坡国立大学团队开发的DualParal技术,通过创新的双重并行架构解决了AI视频生成的长度限制问题。该方法同时在时间帧和模型层两个维度实现并行处理,配合分块降噪机制、特征缓存和协调噪声初始化策略,使生成分钟级长视频成为可能。实验表明,在生成1,025帧视频时,DualParal比现有技术减少了高达6.54倍的延迟和1.48倍的内存成本,同时保持了高质量的视频输出,为内容创作者提供了生成更长、更复杂视频叙事的新工具。
SoloSpeech是约翰霍普金斯大学研究团队开发的创新语音处理技术,针对"鸡尾酒会效应"问题提出了全新解决方案。该系统通过级联生成式管道整合压缩、提取、重建和校正过程,实现了高质量目标语音提取。与传统判别式模型相比,SoloSpeech采用无需说话者嵌入的设计,直接利用提示音频的潜在空间信息与混合音频对齐,有效避免特征不匹配问题。在Libri2Mix及多个真实世界数据集上的评测显示,SoloSpeech在清晰度、质量和泛化能力上均达到了领先水平,为语音分离技术开辟了新方向。
这项由北京大学深圳研究生院、伟湾大学、腾讯ARC实验室和兔小贝智能联合研究的Sci-Fi框架,通过创新的对称约束机制,解决了视频帧间插值中的关键问题。研究团队设计了轻量级EF-Net模块,增强结束帧约束力,使其与起始帧形成平衡影响,从而生成更自然流畅的中间过渡帧。实验证明,该方法在各种场景下都优于现有技术,特别适用于电影制作、动画创作和视频编辑领域,显著降低了人力成本。
这项来自西北大学和谷歌的研究突破了传统马尔可夫强化学习的局限,通过贝叶斯自适应RL框架解释了大语言模型中涌现的反思性推理行为。研究团队提出的BARL算法通过维护多个解题策略的后验分布,指导模型何时何地进行反思性探索,在数学推理任务上展现出显著优势,比基线方法减少高达50%的标记使用量,同时提高了准确率。这一研究不仅解释了"为什么反思有用",还提供了实用的指导原则,为AI系统的自适应推理能力开辟了新方向。