使用HPE GreenLake部署的HPE Alletra MP存储阵列曾向客户做出承诺,要利用云洞见取代传统硬件管理负担。
今年4月推出的Alletra MP是一套基于Proliant服务器机箱和Aruba交换机的横向扩展架构,其节点只能用于纯计算(即控制器)、计算加存储甚至是纯存储类场景。只需在Web控制台上单击几下,我们就能完成阵列、备份和恢复配置,余下的设置工作均由控制台自动完成。
HPE法国的Oliver Tant在采访中表示,“GreenLake最初其实是作为一种财务服务设计的,因为客户不必预先购买硬件,而可以按月支付使用成本。这就跟购置云服务差不多。”
“之后,我们提供的服务逐渐演变成了可供部署的捆绑包,适用于SAP和大数据等场景。客户向我们陈述其需求和对应规模,但基点仍须借助部署系统进行管理。”
“但如今的情况已经大为不同。管理员可以接入GreenLake云控制台,借此监控所有硬件部署以及我们提供的云服务,并为其设置消费阈值和上限。这套Web控制台能够向硬件发送指令并获取指标。”
HPE法国的Michel Parent解释道,“除了自动化之外,消除现场部署的管理控制台还有其他许多优势。比如说,我们不需要更新虚拟机,也不必担心恶意软件会侵入并发动攻击。”
Tant补充称,“云控制台中的存储控制台被称为数据服务。大家首先需要找到适用于Alletra MP的存储模式,比如块存储或文件存储。目前,一个阵列或一组阵列节点只能以一种模式运行。其中文件模式由控制节点上安装的Vast Data(HPE合作伙伴)提供。”
“这里我们只讨论对应Alletra MP的选项,其实大家也可以在控制台中灵活选择我们提供的各类存储方案,包括Scality、Qumulo、Cohesity等等。”
另外还有用于监控性能的工具,包括Infosight。它能提供预测性监控,可用于更新、创建存储卷,设置性能配置文件和访问权限等。
只需单击一下即可激活备份、在辅助站点上创建副本、恢复至正常活动等,而在背后支撑这一切的则是完整的容器部署解决方案。例如Zerto v10,这是一款可检测勒索软件感染的动态复制软件。
另外还有GreenLake Backup & Recovery(可兼容AWS虚拟机和SQL数据库,并将很快兼容Kubernetes集群)。因此,任何HPE合作伙伴甚至是外包商都可通过GreenLake云控制台提供备份和复制选项。
Tant指出,“在接入自己的存储阵列时,系统会查询数据服务云控制台并下载您所定义的所有内容。而每当大家订阅了其他选项,系统也会立即执行更新。”
全新Alletra MP阵列的设计,下HPE之前的3Par和Primera产品形成了鲜明对比。最明显的一点,就是HPE放弃使用自家ASIC主板;现在每个控制节点都使用两块经典主板,且各自配备有AMD Epyc处理器。
Parent介绍称,“这种架构上的改变是实现多功能机器(即MP)所必须付出的代价。我们已经支持使用x86核心来执行软件功能,从原理上讲这就是软件定义存储。”
在块存储模式下,Alletra MP阵列可以部署在最多容纳24个TLC NVMe驱动器的2U机架空间当中;或者也可以先从8块4 TB SSD起步,后续每次添加2块驱动器。除了24块驱动器之外,各节点间还通过NVMe/RoCE和100 Gbps以太网与控制节点连接。HPE选择了Aruba交换机处理流量路由。
文件模式采用的是Vast Data,其并非通过容器,而是选择了更复杂的直接进入Alletra OS内核的方法。这种模式至少需要配备200 TB容量,且匹配一个存储节点和两台Aruba交换机。
Tant解释道,“Alletra MP是一套阵列,我们可以在其中旋转应用程序所需要的控制节点和存储节点。有些客户希望为一个存储节点部署六个控制节点,但另一些客户则希望用一个控制节点管理六个存储节点。”
这种灵活性正是新阵列的关键亮点。控制节点将共享各服务器间的访问需求,同时将冗余数据写入多个存储节点。
Parent最后总结道,“这种工作方式的一大优势,就是我们不需要使用缓存机制,因为SSD的速度已经足够快。而更重要的是,控制器故障引发的一致性问题也将不复存在。”
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。