大约两年之前,HPE推出了一项新的存储业务发展计划,并打造了与之配套的新型存储阵列。本周,在HPE业务中增速可观的这一Alletra产品家族迎来更新,正式接纳“Sapphire Rapids”至强SP处理器。
在设计Alletra产品线时,HPE考虑到大多数企业存储环境都太过复杂,包含多种不同类型的存储资源,且各自需要独立管理和维护、配合相应的管理工具。这种大杂烩式存储体系,意味着需要从数据中提取价值的数据科学家们难以快速获取数据,在数据分析时只能被迫在效率、性能和弹性之间进行取舍。
于2021年中首次亮相的统一DataOps战略正是围绕Alletra存储构建而来,其广泛涵盖云原生控制功能与人工智能,而且在很大程度上依赖于GreenLake这套“即服务型”混合云平台。这里的Alletra,是HPE专门打造的全新存储系统产品线。当时,HPE将Alletra描述为“数据基础设施从边缘到云的全方位范式转变”,可通过供应商的全新数据服务云控制台“为数据所处的任意环境提供云操作和消费体验”。
2019年,HPE就已经成为第一家将自身产品组合以“即服务”形式发布的主要OEM,GreenLake也正是这一探索的具体方案。在此之后,其他厂商也纷纷效法,例如戴尔的Apex、联想的TruScale以及思科的Cisco+。各方的目标基本相同:为组织建立一套类云形式的即服务环境,通过订阅等各种灵活的消费模型开放企业级硬件与软件。凭借这种尝试,各厂商也将在快速增长的混合云领域占据更有利的位置。
HPE表示,其GreenLake战略已经发挥作用。在2022财年第四季度,公司即服务订单总额同比增长68%,年度经常性收入(APR)增长25%。第四季度,HPE的存储收入超过13亿美元,同比上涨6%。该公司还强调,其Alletra订单及收入第四季度环比增长70%以上,并认为这主要是因为Alletra产品线包含更多订阅软件与服务组合。
Alletra的亮眼数字源自2021年以来推出的5000型(面向非全闪存工作负载)、6000型(高可用性)和9000型(面向延迟敏感型加100%可用性要求的全NVM-e闪存系统)。公司大数据业务高级总监Stephen Bacon表示,HPE存储服务器系统多年以来长期集中在Apollo产品线内。但随着两年之前Alletra品牌的推出,HPE开始明确将云原生基础设施拆分了出来。
Bacon在采访中表示,“Alletra品牌所代表的,就是云原生数据基础设施。我们从根本上统一了数据基础设施产品组合,使客户能够通过这样一套组合满足一切数据需求。”
这套产品组合此次迎来了4000系列新成员,新系列于本周正式推出,将搭载英特尔旗下睽违已久的“Sapphire Rapids”至强SP处理器。Bacon表示,HPE正在“统一数据基础设施产品组合,使客户能够通过这样一套组合满足一切数据需求。您可以灵活从产品组合中做出选择,包括基于服务器的全新Alletra 4000产品,或者基于阵列的现有Alletra 5000、6000及9000系列产品。”
4000系列具体分为两个机型——1U全NVMe Alletra 4110及2U混合NVMe 4120,主要面向拥有实时处理、流处理及批量分析等多种用例的中大型企业。此外,机器学习、数据湖、视频监控和医学成像等场景也在新系列的适用范围之内。
Bacon还专门列举了运输部门的视频监控需求为例。客户希望在所有车辆上安装摄像头以记录路况,这部分影像也能在街道上行驶时捕捉当前路况、发现需要修复的点位。这意味着客户必须拥有一套能够快速收集并处理数据的基础设施,而这也是边缘计算在大数据领域影响力日盛的典型证明。
Bacon解释道,“这肯定是近期发生的,最深刻的变化表现之一。我们希望这种变化能够继续保持下去,并进一步推动新需求对数据基础设施的新预期,全面革新边缘、核心数据中心乃至云端的数据基础设施。运输局提出的要求是我们以往所无法想象的,这反映出的底层逻辑也愈发深刻。边缘变革的本质,在于数据格局正在变化并成为整个社会的核心驱动力。而支持这种变化必然要求我们将边缘和中心位置的基础设施统一起来。”
Alletra 4110搭载有两块英特尔最新至强处理器,4120则提供单、双两种选项,最高可匹配5 TB DDR5内存。另外,两款机型还支持GPU与FPGA加速器。
其中4110主要面向机器学习的数据存储需求、分布式及NoSQL数据库、高性能软件定义存储(SDS)及超融合基础设施等工作负载。4120则主要用于分析数据湖、SDS、融合数据保护以及深度归档。
二者均支持企业和数据中心标准外形规格(EDSFF)及SSF SSD。其中4110可容纳最多20块EDSFF或SFF NVM-e SSD,PCI-Express 5.0最高传输带宽可达每秒315 GB。4120最多可容纳24块前侧LFF,后侧则最多可容纳4块LFF加12块ESFF,或者6块SFF驱动器;或者前侧48块SFF驱动器,后侧12块EDSFF或6块SFF驱动器。如果使用PCIe 5 NVMe连接,则数据传输带宽最高可达每秒225.6 GB;使用SAS为每秒24 Gb,使用SATA驱动器则为每秒6 Gb。
Bacon强调,考虑到数据安全的重要意义,HPE决定采用零信任政策。面对不断提升的网络威胁复杂性,任何试图接入系统的人或设备在本质上讲都不可信、都需要接受验证和授信。因此,零信任框架目前越来越受到欢迎。另外,系统还包含用于将设备接入GreenLake的五重因素身份验证及AES-256位加密流程,旨在保护平台内数据。
GreenLake的自管理功能通过HPE Compute Ops Management工具实现,而REST API则负责实现管理操作自动化。
HPE的目标是建立起一套数据基础设施,能够通过GreenLake平台提供与云类似的灵活性和易用性,又不像公有云那样存在巨大的成本不确定性。此外,这套基础设施还要能够快速增长,适应瞬息万变、难以预测的数据环境需求。
Bacon最后总结道,“可以肯定的是,与一年之前相比,当下和未来的数据要求将一路走高。数据需求正变得愈发严苛这一事实,也让我们乃至整个行业坚定了决心,必须要从根本上为数据应用构建相应的基础设施,否则其规模扩展将只能是空谈。”
好文章,需要你的鼓励
OpenAI CEO描绘了AI温和变革人类生活的愿景,但现实可能更复杂。AI发展将带来真正收益,但也会造成社会错位。随着AI系统日益影响知识获取和信念形成,共同认知基础面临分裂风险。个性化算法加剧信息茧房,民主对话变得困难。我们需要学会在认知群岛化的新地形中智慧生存,建立基于共同责任而非意识形态纯洁性的社区。
杜克大学等机构研究团队通过三种互补方法分析了大语言模型推理过程,发现存在"思维锚点"现象——某些关键句子对整个推理过程具有决定性影响。研究表明,计划生成和错误检查等高层次句子比具体计算步骤更重要,推理模型还进化出专门的注意力机制来跟踪这些关键节点。该发现为AI可解释性和安全性研究提供了新工具和视角。
传统数据中心基础设施虽然对企业至关重要,但也是预算和房地产的重大负担。模块化数据中心正成为强有力的替代方案,解决企业面临的运营、财务和环境复杂性问题。这种模块化方法在印度日益流行,有助于解决环境问题、满足人工智能的电力需求、降低成本并支持新一代分布式应用。相比传统建设需要数年时间,工厂预制的模块化数据中心基础设施可在数周内部署完成。
法国索邦大学团队开发出智能医学文献管理系统Biomed-Enriched,通过AI自动从PubMed数据库中识别和提取高质量临床案例及教育内容。该系统采用两步注释策略,先用大型AI模型评估40万段落质量,再训练小型模型处理全库1.33亿段落。实验显示该方法仅用三分之一训练数据即可达到传统方法效果,为医学AI发展提供了高效可持续的解决方案。