PMC公司最近发布了新的HBA卡,为了便于理解HBA这个概念,我拿现实中人与人交流来说明。
如果是一个人对一个人说,双方可以愉快的交流。但是如果一个人对成百上千人讲,我觉得拿个“大喇叭”比较合适。成百上千人对成百上千人说话交流呢?那就需要像HBA这样的东西了。
HBA就是数据连接的“大喇叭”。而且是更高级的“大喇叭”。可以同时连接和传输海量数据的“大喇叭”。我们个人电脑就像是一个人对一个人说。数据从CPU到内存到存储盘就能实现流通。但是数据中心不同,高密度服务器出现了,外置存储阵列出现了。数据中心就像是成百上千人对成百上千人说话,所以需要更高级的一个“大喇叭”进行沟通。这个大喇叭上接计算,下连存储。这个“大喇叭”目前来看就是HBA卡。
PMC公司发布HBA 1000系列的12Gb/s SAS/SATA HBA卡,PMC公司的高扩展解决方案事业部产品及渠道营销总监Troy Winslow来华谈了此次新发布的一些特点。此次发布的 HBA卡,专为高性能云及企业服务器存储连接而推出的产品。新产品与之前的PMC的管理工具和驱动完全兼容,用户可以非常便利的部署在数据中心。
因为PCIe接口成为今天主机系统或者服务器的通用I/O连接标准,所以PMC公司发布HBA 1000系列采用了最新的PCIe Gen 3.0标准的8通道接口。这种接口能够实现最高近8GB/s的理论接口带宽。
但是今天SAS接口为标准的存储接口理论带宽是每通道12Gb/s,今天面临的现实是大多数外围设备不能充分利用这么高的带宽,如何办呢?HBA就是要最大限度提升接口与接口之间的连接性能。
高韧性
HBA 1000采用目前业内在服务器中部署最为广泛的软件栈Smart IP,做的了对现有设备的持续支持。
高效性
相对于竞争对手的16端口HBA方案,功耗降低了60%,因为此次发布的新产品是16个端口集成在一个芯片上,实现功耗明显降低,有利于解决高密度服务器和存储环境中散热问题。
在使用SAS SSDs的情况下达到每秒130万次的IOPS,以及12Gb/s的高性能。HBA 1000可为采用SATA盘作应用加速的云数据中心提供了2.5 倍的吞吐量及85%的随机读性能的提升。
易用性
易于安装,支持现有的存储设备,因为支持6Gb/s和12Gb/s的SAS、SATA HDD 和SSD 以及LTO磁带。
易于扩展,可以直连16个SAS/SATA设备,或采用PMC的扩展器进行全面兼容的存设备。
易于管理,HBA 1000支持广泛的操作系统及软件定义存储(SDS)方案,并与生态系统的产品相兼容,同时,通过一体化的工具及驱动程序实现与其它PMC Adaptec解决方案前向及后向兼容。
从而帮助企业级用户提升资源利用率,并降低总成本。
HBA 1000支持广泛的操作系统及软件定义存储(SDS)方案,并与生态系统的产品相兼容,同时,通过一体化的工具及驱动程序实现与 其它PMC Adaptec解决方案前向及后向兼容。由于HBA 1000同时支持6Gb/s和12Gb/s的规格,因此进一步强化了该产品的管理与兼容性能 。
此次发布有五款产品
目前来看PMC HBA1000系列 12Gb/s SAS/SATA HBA卡,具有功耗最低,尺寸最小的特点,而且性能也非常不错。关键是易于安装、扩展和管理,提高了资源使用。降低了TCO。
最后从应用看,HBA确实是一个实用的“大喇叭”,不管是计算机之间点与点通信,像是服务器与存储子系统之间的连接。或者是服务器与 JBODs之间的连接,以及服务器内部的连接。当你的数据交流增多,你必须需要扩展器需要端口来实现设备连接。HBA就是桥梁的作用。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。