为实现AI愿景,去年12月,戴尔科技宣布正在研发先进的存储技术,为客户提供AI优化的基础架构。今日,戴尔科技宣布推出适用于全闪存产品的两个新节点——Dell PowerScale F210 和 F710。
戴尔科技此次发布了最新一代的高性能文件存储系统,凭借领先的PowerEdge服务器助力计算最密集工作负载。PowerScale集成最新的OneFS软件,是一个完整的AI就绪数据平台,具有无可比拟的性能和规模、卓越的效率、极高的安全性以及多云敏捷性。
最新的全闪存节点:PowerScale F210和F710
因为下一代工作负载带来巨大的数据负担,客户需要更快且更具成本效益的解决方案。PowerScale凭借久经考验的性能,连续八年蝉联Gartner®魔力象限™领导者,并且随着F210和F710的推出,PowerScale 实现了更高的性能和效率。F210是可同时满足高性能和小容量要求的最佳平台,而F710则以1RU的尺寸实现了高性能与大容量的平衡。
PowerScale:具有出色灵活性1、安全性2、高效3的文件存储,愈加卓越
无可比拟的性能
在去年软件优化的加持下,流式读取性能相较上一代产品提升高达两倍,显著加快了向GPU馈送数据进行模型训练和微调的速度。同样,流式写入性能提高了一倍,可优化AI 工作流程的模型训练和推理阶段的检查点功能。此外,PowerScale 去年的软件和硬件升级有助于加快周转时间,降低试产延迟的风险,并在高并发和延迟敏感型工作负载,如高频交易(HFT)和电子设计自动化(EDA)中,实现最高2.6 倍的性能提升。
更高的效率
戴尔科技在优化客户总拥有成本方面也取得了重大进展。最新平台采用Smart Flow机箱使气流的流动变得更合理,将适量的空气引导至需要的地方,从而提高能效。得益于这些持续不断的创新,戴尔科技在短短一年之内将每瓦性能提高了 90%。
在上一代节点的容量和密度基础上,F710 在 1U 配置中最多可容纳 10 块硬盘,与 F600 相比,节点密度提高了 25%。同样,通过引入 15TB QLC 硬盘,戴尔科技提高了F210紧凑型配置的存储利用率,容量比 F200 提升了一倍。
博通公司首席信息官Alan Davidson表示:“通过与戴尔科技集团合作,我们的业务加速创新。全新Dell PowerScale F710不仅在EDA工作负载中实现了25%以上的性能提升,同时提高了数据中心的可持续性,超出了我们的预期。”
戴尔科技AI就绪数据平台:PowerScale
戴尔科技为提供PowerScale OneFS软件和平台增强功能的团队感到无比自豪,同时也期待看到客户利用该产品以加速AI创新。F210和F710极大地丰富了PowerScale的NVMe全闪存产品阵容,具有GPU Direct以及其他嵌入式功能,例如无中断扩展、多租户功能、支持多协议的通用数据访问、极高安全性以及与公有云的灵活性和无缝互操作性等,正在改变高速存储的游戏规则,并支持要求最苛刻的文件工作负载,如AI和GenAI。
借助这两款最新的PowerScale全闪存节点,戴尔科技将释放数据的力量,快速实现AI创新之旅。可以点击规格表和PowerScale页面了解有关最新一代节点的更多信息。
戴尔科技久经验证的AI全栈设计解决方案组合
戴尔科技拥有全球最广泛的GenAI基础架构产品组合,从云到客户端设备应有尽有,随时随地将AI应用于数据。如果希望在AI之旅中继续迈进,戴尔科技专家级的专业服务将为每一步提供指导。
1 基于戴尔科技的分析,2023年2月
2 基于戴尔科技对Dell PowerScale提供的网络安全软件功能与竞争产品的比较分析,2022年9月
3 基于戴尔科技对效率相关功能的比较分析,包括:数据缩减、存储容量、数据保护、硬件、空间、生命周期管理效率和能源之星认证配置,2023年6月
4 基于戴尔科技初步测试,2023年10月。将配备OneFS 9.7的F710全闪存节点与配备OneFS 9.4的PowerScale F600*全闪存节点进行比较。实际结果可能有所不同。
5 基于戴尔科技内部测试,2024年1月。将配备OneFS 9.7的PowerScale F710全闪存节点与配备OneFS 9.4 的PowerScale F600*全闪存节点进行比较。实际结果可能有所不同。
关于戴尔科技集团
戴尔科技集团致力于帮助企业和个人构建数字化未来,改进他们的工作、生活和娱乐方式,为客户提供面向数据时代全面和创新的产品、技术、解决方案及服务组合。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。