
HPE正在增强3PAR全闪存能力,支持高容量SSD,增加用于容器的永久性存储,改进快照和文件管理服务。
在拉斯维加斯举行的HPE Discover上,HPE宣布StoreServ将获得:
• 支持大容量SSD:据我们了解,支持来自三星的7.68TB和15.36TB 3D SSD,采用48层技术
• Volume Plugin与Docker Engine集成,实现针对容器的永久性存储,使其可以访问3PAR的数据服务,例如加密、服务质量、快照、复制和重复数据删除
• Recovery Manager Central (RMC),将应用快照直接从闪存迁移到磁盘存储,速度是传统存储备份的23倍之多
• File Lock for 3PAR File Persona让文件一成不变,支持基于策略的保留
• NTFS安全模式和针对3PAR File Persona的跨协议锁定,"可实现针对Windows环境的安全性,提供协议之间--包括SMB和NFS之间--更无缝的群组文件共享"
• StoreEver Archive Manager软件将3PAR文件数据迁移到磁带以进行归档,同时可以透明地访问这些数据,好像这些数据仍然在线一样。
支持7.68TB和15.36TB SSD让SolidFire的1.92TB SSD支持变得相形见绌,那么低容量的SolidFire呢?
HPE表示,StoreServ最多支持24PB可用闪存容量(4:1的压缩率意味着6PB原始容量),现在是业界最高密度和可扩展的全闪存阵列,密度要比EMC全闪存系统高12x。另外,StoreServ支持大容量SSD是通过Adaptive Sparing和Express Layout机制实现的。更准确地说,这些并不妨碍支持大容量驱动器。
通过自适应备用,而不是让备用的物理SSD组在发生生产用SSD出故障的时候待命,这个同等的备用驱动器容量是分配到现有多个SSD上作为未使用的"容量块"。如果一个SSD发生故障,那么启动多对多重建流程对数据进行重组。而且,SSD上的备用空间是与SSD本身有关的,用于过量配置的容量,这会增加它的寿命。
Express Layout提供了从存储控制器到SSD的并发访问以实现更高的吞吐量,本质上并没有说使不使用大容量SSD的机制。
除了现有对VMware、微软SQL、任何作为虚拟机运行和支持微软VSS的应用之外,RMC应用还增加了对Oracle数据库、SAP HANA以及3PAR File Persona的支持。
现有的主流厂商,Dell-EMC、HDS、HPE、IBM和NetApp现在都争相把全磁盘和混合主存储阵列转换为全闪存阵列,以防止竞争对手争抢自己的客户群。HPE采用单一技术--StoreServ AFA来做到这一点,而其他则采用了多产品家族的策略。
HPE和其他厂商还面对着来自Pure Storage在全闪存阵列方面的竞争。厂商之间的竞争包括提供更好的数据服务,具有不错的TB/U率和可扩展性的阵列。HPE的StoreServ目前在这些方面表现都不错。
在今年1月的IDC AFA Marketscape报告中,HPE名列前茅,并且在Gartner和IDC的AFA提供商排名中也有不错的进步。惠特曼带领下的HPE希望能够在此基础上取得更多的进展。
定价和供货
HPE目前已经在全球范围内提供对7.6TB SSD的支持,在美国的起价为20748美元。目前15.36TB SSD也已经可以订购,并将在下半年开始出货,起价为40000美元。
Docker-Integrated Native Docker Volume Plugin将从本月开始供货,从HPE Storage GitHub这里可以获得。
目前HPE已经开始提供支持SAP HANA和3PAR File Persona的HPE Recovery Manager Central (RMC),持有RMC许可和有效支持合同的客户无需支付额外费用。针对新客户的许可起价为1000美元。
RMC for Oracle (RMC-O)将从7月开始供货,起价为2500美元。目前持有Recovery Manager for Oracle许可及有效支持合同的客户可以免费升级。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。