Emulex公司日前宣布,Emulex万兆以太网(10GbE)技术被惠普以太网万兆双端口557SFP+适配器PCI Express(PCIe)3.0网络接口卡(NIC)采用,用于HP ProLiant Gen9机架式和塔式服务器。通过在最新一代PCI 3.0格式中应用全新Emulex万兆以太网技术,惠普得以凭借针对企业虚拟化和混合云部署的先进特性和功能,为客户提供业界领先的性能、价值及简便性。
Emulex市场营销高级副总裁Shaun Walsh表示:“Emulex为HP ProLiant Gen9服务器提供一系列I/O连接解决方案,全面覆盖不同机型、网络和存储协议。惠普557SFP+网络接口卡具备Emulex独有的隧道卸载、基于聚合以太网的远程直接内存存取(RoCE)等先进特性,能够为客户提供网络功能虚拟化(NFV)、混合云重叠网络等功能,帮助客户在数据中心使用下一代技术。”
基于Emulex OneConnect以太网网络适配器技术的惠普557SFP+网络接口卡能够为HP ProLiant Gen9环境提供以下关键优势:
• 提升网络性能:惠普557SFP+网络接口卡提供比前代适配器高4倍1的小型数据包处理性能。小型数据包处理性能的提升对于IP语音电话(VoIP)、移动消息传递、游戏和部分NFV应用等技术的提速至关重要。
• 凭借隧道卸载提供优越的服务器CPU性能:惠普557SFP+网络接口卡为在VMware上运行的虚拟可扩展局域网(VXLAN)以及采用通用路由封装(NVGRE)隧道的网络虚拟化提供业界唯一的硬件卸载支持。与不具备卸载功能的适配器相比,惠普557SFP+网络接口卡可简化虚拟机(VM)移动性和网络可扩展性,同时优化服务器性能。
• 提升每个服务器CPU单元的I/O处理能力:与不具备重叠网络卸载功能的适配器相比,惠普557SFP+网络接口卡能够为混合云重叠网络提供最高可提升143%的吞吐量以及最高可提升46%1的CPU性能,从而进一步优化服务器性能。
• 加速网络附加存储(NAS)I/O处理:加速的文件存储I/O处理可通过高性能SMB Direct RoCE网络硬件卸载支持增强Microsoft应用的性能。RoCE可通过绕开软件来缩短I/O响应时间并减少NAS基础架构服务器CPU功耗,从而降低CPU利用率、加快数据传输。
HP ProLiant机架式和塔式产品管理副总裁McLeod Glass指出:“在当前的云和移动先行环境中,客户面临着各种挑战,比如日渐复杂的网络流量模式、不断增多的小型数据包以及急需提升的响应能力,他们需要以更少的投入得到更多的产出。全新惠普557SFP+网络接口卡基于Emulex OneConnect技术,成为我们为HP ProLiant客户提供的众多Emulex I/O适配器产品中的最新成员,能够为客户交付其所需的灵活性、协议选择和性能,并降低总体拥有成本。惠普557SFP+网络接口卡提供的先进的万兆以太网功能(比如隧道卸载支持)可提高HP ProLiant服务器的性能和服务器总体效率,这对于最大限度地提高主机的虚拟机密度以及提升加速性能至关重要,并能通过SMB Direct提高Microsoft Hyper-V实时迁移、SQL Server和Microsoft SharePoint等应用的效率。”
采用Emulex技术的惠普557SFP+网络接口卡已于2015年3月30日全面上市。有关该产品或任何其它HP/Emulex产品的详细信息,请访问http://www.emulex.com/hp。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。