2024年5月7日,北京 – 随着生成式AI和云技术的迅猛发展,数据爆炸式增长的趋势愈发明显,企业正面临前所未有的数据管理挑战。日立集团(TSE: 6501)旗下专注数据存储、基础架构与混合云管理的子公司Hitachi Vantara今日宣布推出新一代单一混合云数据平台——Hitachi Virtual Storage Platform One。在当今这个技术日新月异的时代,该平台将变革企业的数据管理方式和数据利用模式。
欲了解有关Hitachi Vantara Virtual Storage Platform One平台的更多信息,请访问:
https://www.hitachivantara.com/en-us/products/storage-platforms/data-platform
随着企业努力在复杂的分布式多云基础架构上扩展数据并实现应用程序的现代化,他们迫切需要一套跨所有数据类型的、全面的数据管理解决方案。根据TDWI近期发布的数据管理成熟度评估(DMMA)报告,尽管高达71%的IT专家都表示其所在企业高度重视数据,但仅有19%的人认为其所在企业已经制定了坚实的数据管理战略。更为棘手的是,随着网络攻击事件的频发,数据管理问题更加复杂,导致企业领导者对数据安全和数据恢复能力愈加担忧。最新调查显示,68%的IT领导者对其企业数据基础架构的弹性持有顾虑。
目前可用的Virtual Storage Platform One产品包括:
· Virtual Storage Platform One SDS块存储
· Virtual Storage Platform One SDS云存储
· Virtual Storage Platform One文件存储
Virtual Storage Platform One简化了任务关键型应用程序的基础架构,重点关注提高数据可用性,同时实施强大的数据弹性和可靠性策略,包括降低停机时间、减少生产力损失和抵御安全威胁。
Hitachi Vantara首席产品官Octavian Tanase表示:“Virtual Storage Platform One在数据存储领域是一款具有变革性意义的产品。无论企业数据位于本地、云环境还是软件定义环境中,它都能统一所有数据,并提供企业所需的灵活性。此外,该平台在设计之初就将弹性作为核心考虑因素,确保其所有解决方案都能提供100%数据可用性、日立现代存储保障计划和有效容量,从而为企业提供规模化的简便性,以为混合云构建牢不可破的数据基础。”
Virtual Storage Platform One攻克了现代数据管理的难题,打破了数据孤岛的桎梏,使得所有信息都能协同发挥作用,并能轻松灵活地纵向扩展和收缩。基于此,数据得以在高效且快速的环境中自由流动,充分发挥其潜在价值。此外,Virtual Storage Platform One SDS云存储已经正式上线AWS Marketplace,后者是一个数字化产品目录,汇集来自第三方独立软件供应商的数千款软件产品,用户可以通过该平台轻松查找、测试、购买和部署在亚马逊云科技(AWS)上运行的软件。这为企业用户在AWS中充分利用Hitachi Vantara的先进数据管理解决方案提供了无缝集成与快捷访问的便利。
数据管理新时代
Virtual Storage Platform One的核心是一个统一的数据生态系统,该系统实现了块存储和文件存储的无缝集成,消除了数据孤岛和碎片化现象。依托日立存储虚拟化操作系统(SVOS),Virtual Storage Platform One可确保每一条信息都能实现跨设备和跨地点的收集、整合与访问,从而促使用户更加轻松自如地获取信息、查看信息并利用信息驱动业务发展。
Garanti BBVA云数据存储技术经理Deniz Armen Ayd?n表示:“我们与Hitachi Vantara的合作已历经十余载,对其服务质量、专业知识和产品耐用性感到非常满意。Virtual Storage Platform One的推出有望彻底改变Garanti BBVA内部的数据管理方式,显著提升效率,我们对其提供的尖端自动化和弹性功能充满期待。”
该混合云平台凭借下述关键差异化因素重新定义数据管理格局,在竞争中脱颖而出:
本年度,Virtual Storage Platform One平台的更多产品将陆续推出。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。