希捷科技公司日前宣布进一步扩展希捷Nytro XP6000产品系列,推出两款新的PCIe闪存加速卡——Nytro XP6302和XP6209。新卡尺寸更小,能够满足市场对于高性能和大容量的需求,适用于各种散热困难的环境,如空气流动不足的小型服务器环境。
新的Nytro XP6302提高了PCIe闪存容量,它的高度只有此前产品的一半,却拥有极具竞争力的性能特征。Nytro XP6302可以实现最佳的密度,并有效地提高性能,以应对较高线程数和队列深度的工作负载。XP6209卡是Nytro产品组合的第二次扩展,它新增了1.86TB的容量点,与此前相比翻了一番。新的1.86TB款产品拥有小外形、散热优化、超融合的设计,可以满足客户对于更高容量密度的需求。
这些新的PCIe闪存卡属于第三代Nytro解决方案,它们很好地扩展了希捷广泛的PCIe闪存加速器产品组合,使得数据中心架构师能够选择适当的解决方案,满足各种独特的需求,包括支持超大规模的云和企业数据中心,以及大数据、虚拟桌面和各种服务器工作负载。
希捷公司市场营销、规划、架构和PCIe闪存解决方案部门副总裁Manish Muthal表示:“我们在Nytro产品线的持续创新不断巩固了我们在PCIe闪存加速解决方案领域的领先地位。超融合型基础设施不断发展壮大,管理云、大数据和超大规模数据中心生成的海量数据也需要巨大的计算和存储资源,所以小尺寸、高性能、大容量的解决方案不可或缺。新推出的Nytro XP6302和1.86TB XP6209正好能够满足这些需求。”
Nytro XP6302:将容量和带宽最大化
Nytro XP6302卡是一种小尺寸、高带宽的应用加速解决方案,可以应对大规模的数据负载,同时降低复杂性、成本和数据中心空间要求,其带宽通常两倍于大多数的小尺寸卡。这是因为它采用了多平面的设计,因此提高了每插槽的PCIe闪存容量——可用容量高达1.75TB。
Nytro XP6302卡应用了最新的PCIe 3.0和eMLC闪存技术,在相似尺寸的情况下,它提供的带宽是竞争性产品的两倍以上(3.5GB/s:1.5GB/s)。因此,架构师能够在其数据中心更加有效地运行基于服务器的PCIe闪存。
Nytro XP6209(1.86 TB):消除PCIe闪存采用的障碍
PCIe闪存的每GB成本相对较高,因此妨碍了企业采用基于PCIe的闪存产品。XP6209卡将PCIe闪存的高性能与较低的前期成本和总体拥有成本(TCO)相结合,从而消除了这一不利因素。Nytro XP6209卡新增了一种1.86TB版本,可用容量两倍于当前出货的小尺寸、散热优化的XP6209卡。其设计重点在于提高XP6209卡的耐用性,以便满足读取密集型应用的要求,同时降低每GB成本。此外,作为第三代产品的用户,在获得高度可靠和强大解决方案的同时,还能保持较低的维护成本。
IDC公司固态硬盘和应用技术研究总监Jeff Janukowicz表示:“企业数据中心必须通过提高存储性能和降低时延,加速应用软件的运行速度,以满足当前业务的严苛要求。为此,客户越来越多地采用各种PCIe闪存解决方案,如希捷最新的Nytro闪存加速卡,这些产品经过性能优化,非常适用于混合工作负载环境。”
Nytro系列的PCIe闪存加速器产品十分全面,可提供极高的性能并降低CPU的负担,能够胜任最严苛的数据库应用和I/O密集型工作负载。除此之外,Nytro XP6302和XP6209卡还拥有先进的算法和专用的硬件资源,能够应对复杂的闪存管理任务,包括垃圾收集和损耗平衡。
这些产品的供应渠道包括:部分希捷原始设备制造商,以及遍布全球的经销商、整合商和增值经销商(VAR)网络。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。