日前,全球最大的虚拟主机和云服务行业大会HostingCon在美国新奥尔良召开,中国领先的数据中心产品和方案供应商浪潮参加展会,并在会上发布了1U双路服务器NF5166M4,一款业界存储密度最高,专为超大规模数据中心的分级存储应用而优化。
NF5166M4实现了在1U的紧凑空间内容纳12块3.5英寸硬盘及4块2.5英寸SATA SSD,支持达120T的海量存储。NF5166M4不仅提供了超大存储空间,同时配以双路E5 2600 v4处理器,搭配最大2TB(单条128GB)内存容量,拥有强劲的计算能力,适用于分布式文件系统、超融合和大数据应用。

NF5166M4 成本、性能和密度的最佳平衡
在数据量呈爆炸性增长的态势下,越来越多的超大规模数据中心开始涌现。如何能够使后台系统满足应用和数据日益膨胀的需求,并降低数据存储的成本,成为云服务商急需解决的问题。
在浪潮看来,提高服务器的存储密度,并根据数据冷热程度的不同进行数据的分级存储,是提高访问性能、降低数据存储成本的最佳解决方案。NF5166M4就是一款专门针对超大规模数据中心优化而生的机架式服务器,兼顾了性能、密度和成本的平衡。
在存储密度上NF5166M4堪称业界最高,1U的空间内即可实现存放12块3.5英寸硬盘及4块2.5英寸SATA SSD。存储密度是传统1U服务器的3倍,平均每TB成本减少13%。而相比同容量的服务器,NF5166M4的空间节省率高达50%,部署密度也进一步提高。
同时,考虑到传统的冷热数据采用同样标准进行存储,不但影响性能而且成本大大增加。NF5166M4将较活跃的热数据块放到性能最佳的存储层,而将不太活跃的温冷数据块放置到性能较一般的存储层,以实现性能和成本的最佳平衡,这就是分级存储技术。
NF5166M4内置的12块3.5英寸硬盘可以作为温冷数据盘,而4块2.5英寸SATA SSD则可作为活跃的缓存热数据盘,这样就实现了数据盘与缓存盘4:1或3:1的最佳性能比,帮助客户根据不同时期数据的冷热情况对数据进行降温处理,并能灵活的从海量的数据中将冷热数据指向不同的存储路径,将存储成本降低到理想的水平。
绿色节能 超大规模数据中心理想之选
专家估计,到2020年数据中心年度用电总量将达到1380亿度,如何做到绿色节能是许多数据中心迫切需要解决的难题。NF5166M4通过搭建分级存储系统,可实现温冷数据硬盘在无操作时做到休眠操作,将功耗降到最低,在磁盘数量提升50%的前提下,功耗增加不足30%。此外浪潮NF5166M4采用高效VR元器件,配合业内最优的高效数字电源方案,转化效率可高达94%,可最大限度节约能源。
除了机器本身产生会产生能耗外,散热也是一个不可忽视的重点,通过系统环境动态感知技术实时调节风扇转速,能够实时监控整机能耗,配合先进的风冷系统,保障系统在如此高密度的情况下依然可以正常散热。
浪潮全线融合架构产品亮相HostingCon
除NF5166M4之外,浪潮此次展出的还有融合架构系列产品SmartRack整机柜服务器、InCloudRack云一体机、I9000融合架构刀片等产品,并与Diablo公司共同发布了专为Apache Spark开发和优化的基础架构方案,引起了众多主机提供商、IDC数据中心、云数据解决方案提供商及业内专业人士的关注。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。