戴尔今天公布了多款第13代PowerEdge服务器新品,这一轮升级更新主要针对Web、企业级以及超大规模应用市场,值得关注的是,新一代服务器更加注重后端存储,利用针对SAN和DAS的流动缓存让服务器可以把最重要的数据缓存到闪存存储中,让存储更加靠近服务器。
这次戴尔推出的5款机型覆盖刀片服务器、机架服务器和塔式服务器,型号分别为PowerEdge R730xd、R730、R630机架服务器、M630刀片服务器和T630塔式服务器,下面这张幻灯片清楚地展示了此次新品的特点及定位:
这一轮更新主要增强了PowerEdge服务器的数据吞吐量和存储密度。其中,R630服务器采用1.8英寸SATA固态盘,IOPS性能提高2.4倍,这样1U机箱内最多就可容纳24个固态盘,容量最高达到19.2TB。R730服务器则在2U机箱内提供了100TB的存储空间,对于SQL数据库来说,这样的增强可以使在线交易处理的速度提高10.5倍。
按照戴尔产品部营销执行总监Brian Payne的解读,此次戴尔PowerEdge的推陈出新主要围绕着3个关键领域展开:
关键点1:存储更亲近计算
戴尔通过第13代服务器提高应用软件的性能,让存储更加靠近计算节点,实现软件定义存储,大幅提升应用性能。
在软件定义存储环境下,把数据进行分层优化数据分布是很重要的。闪存和固态盘很好地确保存储跟上CPU计算能力的增长,更好地处理和支撑在计算节点上的计算和读写能力的增长。企业可以在闪存这样的高性能存储上保存核心关键数据,需要保存但不用经常读取的数据可以保存在具有经济效益的存储介质中。
Payne表示,软件定义存储增长非常快,因此戴尔在设计最新服务器的时候必须将其作为重要的考量因素。此次发布的戴尔第13代服务器采用全新DAS Cache以及Express Flash技术,能够将闪存硬件直接连接处理器,相当于在服务器中放置了热数据存储层和冷数据存储层,最大限度降低处理器的延并提高IO性能,号称是业内唯一的热插拔固态盘,戴尔称其是实现应用性能大幅度提升的“基石”。
关键点2:省钱省力
戴尔第13代服务器简化生命周期管理流程,节约成本并降低总拥有成本。
技术的发展和颠覆性步伐毫无疑问在加快,而很多ITiqye在努力寻找这种恰当的平衡,就是在不增加环境复杂性的情况下以较快的方式推出技术。不仅如此,在软件定义存储的环境下想要监控服务器和存储的运行状况是非常复杂的。
因此,戴尔第13代服务器去掉了针对服务器性能监测的软件代理,实时检测服务器性能和SAS存储健康状况。一项名为iDRAC的快速同步功能可以在设备出现故障的时候自动连线技术支持人员,用手持设备就能发送服务器健康信息和基本设置信息。此外,戴尔还增强了自动化管理,缩短启动时间和维护时间,服务器可自动更新。
关键点3:优化工作负载
现在很多企业都在同时运行着传统业务应用和新兴应用,因此数据中心必须支持各种多样化的工作负载和应用,所以戴尔在设计第13代服务器更加注重满足应用和工作负载的要求,包括业务计算、统一通信和协作,虚拟化和技术计算。
因此,戴尔利用基于开放架构的产品组合优化最密集的工作负载。通过Oracle 12c上的Fluid Cache for SAN提高处理订单速度。在后端,戴尔针对服务器专门设计了低成本大容量MD1400和MD1420增强存储性能。
“现在企业级厂商面临多重压力,因为企业客户需要把传统数据中心变革为新型数据中心,连接成千上万的移动终端,需要分析海量数据,保证信息安全以及构建云环境……戴尔第13代服务器为Web、企业和超大规模应用优化,采用了存储、处理和内存技术中的新技术和系统管理功能。”
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。