使用HPE GreenLake部署的HPE Alletra MP存储阵列曾向客户做出承诺,要利用云洞见取代传统硬件管理负担。
今年4月推出的Alletra MP是一套基于Proliant服务器机箱和Aruba交换机的横向扩展架构,其节点只能用于纯计算(即控制器)、计算加存储甚至是纯存储类场景。只需在Web控制台上单击几下,我们就能完成阵列、备份和恢复配置,余下的设置工作均由控制台自动完成。
HPE法国的Oliver Tant在采访中表示,“GreenLake最初其实是作为一种财务服务设计的,因为客户不必预先购买硬件,而可以按月支付使用成本。这就跟购置云服务差不多。”
“之后,我们提供的服务逐渐演变成了可供部署的捆绑包,适用于SAP和大数据等场景。客户向我们陈述其需求和对应规模,但基点仍须借助部署系统进行管理。”
“但如今的情况已经大为不同。管理员可以接入GreenLake云控制台,借此监控所有硬件部署以及我们提供的云服务,并为其设置消费阈值和上限。这套Web控制台能够向硬件发送指令并获取指标。”
HPE法国的Michel Parent解释道,“除了自动化之外,消除现场部署的管理控制台还有其他许多优势。比如说,我们不需要更新虚拟机,也不必担心恶意软件会侵入并发动攻击。”
Tant补充称,“云控制台中的存储控制台被称为数据服务。大家首先需要找到适用于Alletra MP的存储模式,比如块存储或文件存储。目前,一个阵列或一组阵列节点只能以一种模式运行。其中文件模式由控制节点上安装的Vast Data(HPE合作伙伴)提供。”
“这里我们只讨论对应Alletra MP的选项,其实大家也可以在控制台中灵活选择我们提供的各类存储方案,包括Scality、Qumulo、Cohesity等等。”
另外还有用于监控性能的工具,包括Infosight。它能提供预测性监控,可用于更新、创建存储卷,设置性能配置文件和访问权限等。
只需单击一下即可激活备份、在辅助站点上创建副本、恢复至正常活动等,而在背后支撑这一切的则是完整的容器部署解决方案。例如Zerto v10,这是一款可检测勒索软件感染的动态复制软件。
另外还有GreenLake Backup & Recovery(可兼容AWS虚拟机和SQL数据库,并将很快兼容Kubernetes集群)。因此,任何HPE合作伙伴甚至是外包商都可通过GreenLake云控制台提供备份和复制选项。
Tant指出,“在接入自己的存储阵列时,系统会查询数据服务云控制台并下载您所定义的所有内容。而每当大家订阅了其他选项,系统也会立即执行更新。”
全新Alletra MP阵列的设计,下HPE之前的3Par和Primera产品形成了鲜明对比。最明显的一点,就是HPE放弃使用自家ASIC主板;现在每个控制节点都使用两块经典主板,且各自配备有AMD Epyc处理器。
Parent介绍称,“这种架构上的改变是实现多功能机器(即MP)所必须付出的代价。我们已经支持使用x86核心来执行软件功能,从原理上讲这就是软件定义存储。”
在块存储模式下,Alletra MP阵列可以部署在最多容纳24个TLC NVMe驱动器的2U机架空间当中;或者也可以先从8块4 TB SSD起步,后续每次添加2块驱动器。除了24块驱动器之外,各节点间还通过NVMe/RoCE和100 Gbps以太网与控制节点连接。HPE选择了Aruba交换机处理流量路由。
文件模式采用的是Vast Data,其并非通过容器,而是选择了更复杂的直接进入Alletra OS内核的方法。这种模式至少需要配备200 TB容量,且匹配一个存储节点和两台Aruba交换机。
Tant解释道,“Alletra MP是一套阵列,我们可以在其中旋转应用程序所需要的控制节点和存储节点。有些客户希望为一个存储节点部署六个控制节点,但另一些客户则希望用一个控制节点管理六个存储节点。”
这种灵活性正是新阵列的关键亮点。控制节点将共享各服务器间的访问需求,同时将冗余数据写入多个存储节点。
Parent最后总结道,“这种工作方式的一大优势,就是我们不需要使用缓存机制,因为SSD的速度已经足够快。而更重要的是,控制器故障引发的一致性问题也将不复存在。”
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。