让社会信任 AI 需要什么?每一个由 AI 算法生成的决策、预测和洞察都取决于数据的可用性和质量。为了充分发挥 AI 的潜力,数据必须得到有效且高效的存储。换句话说,数据支撑着 AI,而存储则支撑着数据。这种赋能是相互的:AI 也在强化当今的存储创新以满足自身需求。
要了解 AI 如何帮助创造更好的存储解决方案,我们首先要探讨它与数据的关系。AI 数据存在于数据生成和消费的循环中,更多高质量、多样化的输入数据会带来更智能的模型和更好的结果。在这个循环中,AI 成为数据创建的力量倍增器,对大容量存储解决方案的需求也在显著增长。
然而,差距依然存在。基于 IDC 2024 全球数据圈研究的希捷分析表明,从 2024 年到 2028 年,数据将以 25% 的速度增长,而存储装机量的增长速度预计较慢,复合年增长率为 17%。
这种差距对企业有着业务影响:组织需要制定长期容量规划,确保其数据存储基础设施已做好准备以变现未来的机遇。
存储密度的进步使得在规模化满足 AI 数据存储需求的同时,最大限度地减少占地面积扩张和资源影响成为可能。例如,面密度的提升使得每个盘片存储容量超过 3TB 的硬盘得以问世,提高了能效并降低了每 TB 的碳排放。
AI 在这项创新中既是原因也是结果:AI 促进了数据存储设计的改进,这反过来又帮助组织在 AI 处理中最大化利用他们的数据价值。
例如,希捷正在使用 NVIDIA 技术来满足不断增长的 AI 存储需求,并开发下一代 Mozaic 硬盘。通过与 NVIDIA 合作,希捷优化工作流程,提升效率、性能和可扩展性。这种合作专注于模拟工作流程的各个方面,包括模型构建、解决方案算法、后处理和可视化任务。
通过解决传统 CPU 模拟和繁琐工作流程导致的存储硬盘设计过程中的重大挑战,团队得以加快硬盘设计速度。通过 GPU 加速计算加快电磁模拟,缩短数据存储设计生命周期、改善上市时间以及与可持续发展目标保持一致的目标也得以实现。
通过更多前期产品建模和设计优化,公司可以处理更复杂的模型,减少原型设计和物理测试,降低设计过程中的能耗,开发更节能的存储解决方案。
这种方法的益处也惠及利益相关者,例如为所有人培养敏捷性和竞争力。客户可以更快获取下一代硬盘创新,更早优化运营,更快实现投资回报。合作伙伴受益于动态协作、加速市场覆盖和提升资源效率。随着 AI 的兴起带来数据存储需求的增长,技术合作伙伴关系有助于确保行业以更快、更节能的解决方案引领发展,满足 AI 的存储需求。
硬盘行业对这样的创新并不陌生。几十年来,它一直走在将 AI、机器学习 (ML) 和其他先进技术整合到产品开发和制造过程中的前沿。这种投入在当前部署在生产线上的众多 AI 解决方案中得到了体现。这些解决方案不仅提高了一线工人的效率,还实现了更快的问题解决。
随着数据存储的边界不断被推进,科技行业已准备好采用下一代更快、容量更大且更节能的存储解决方案。这些创新将满足 AI 时代对数据存储不断增长的需求。通过每一项新的进步,技术领导者不仅在跟上当今的数据存储需求,还在塑造其行业的未来。
好文章,需要你的鼓励
这项研究由新加坡国立大学团队开发的DualParal技术,通过创新的双重并行架构解决了AI视频生成的长度限制问题。该方法同时在时间帧和模型层两个维度实现并行处理,配合分块降噪机制、特征缓存和协调噪声初始化策略,使生成分钟级长视频成为可能。实验表明,在生成1,025帧视频时,DualParal比现有技术减少了高达6.54倍的延迟和1.48倍的内存成本,同时保持了高质量的视频输出,为内容创作者提供了生成更长、更复杂视频叙事的新工具。
SoloSpeech是约翰霍普金斯大学研究团队开发的创新语音处理技术,针对"鸡尾酒会效应"问题提出了全新解决方案。该系统通过级联生成式管道整合压缩、提取、重建和校正过程,实现了高质量目标语音提取。与传统判别式模型相比,SoloSpeech采用无需说话者嵌入的设计,直接利用提示音频的潜在空间信息与混合音频对齐,有效避免特征不匹配问题。在Libri2Mix及多个真实世界数据集上的评测显示,SoloSpeech在清晰度、质量和泛化能力上均达到了领先水平,为语音分离技术开辟了新方向。
这项由北京大学深圳研究生院、伟湾大学、腾讯ARC实验室和兔小贝智能联合研究的Sci-Fi框架,通过创新的对称约束机制,解决了视频帧间插值中的关键问题。研究团队设计了轻量级EF-Net模块,增强结束帧约束力,使其与起始帧形成平衡影响,从而生成更自然流畅的中间过渡帧。实验证明,该方法在各种场景下都优于现有技术,特别适用于电影制作、动画创作和视频编辑领域,显著降低了人力成本。
这项来自西北大学和谷歌的研究突破了传统马尔可夫强化学习的局限,通过贝叶斯自适应RL框架解释了大语言模型中涌现的反思性推理行为。研究团队提出的BARL算法通过维护多个解题策略的后验分布,指导模型何时何地进行反思性探索,在数学推理任务上展现出显著优势,比基线方法减少高达50%的标记使用量,同时提高了准确率。这一研究不仅解释了"为什么反思有用",还提供了实用的指导原则,为AI系统的自适应推理能力开辟了新方向。