IBM现为其Power服务器闪存驱动器提供无需经由交换机的直连访问,希望能让众多核心访问到更多具有更大数据传输带宽的驱动器。
Power服务器产品是IBM旗下的专有服务器,基本上也是目前市面上仍能与主导性x86处理器和新兴Arm及Risc-V处理器设计相抗衡的最后一种专有服务器CPU技术。这些处理器被用于蓝色巨人的Power服务器和i系列系统,其根源可以追溯到1988年的AS/400。如今,IBM正对其Power和i产品线做又一轮更新。

Steve Sibley
IBM Power产品管理副总裁Steve Sibley在帖子中写道,“借助业内首款已公开的PCIe直连24盘位NVme存储抽屉,IBM正着力扩展I/O容量。”
通过直连设计,IBM能够确保NVMe SSD与处理器核心的PCIe通道之间不再受到PCIe交换机或其他装置的阻隔,从而为NVMe驱动器和需要从中读取/写入数据的CPU核心之间提供完整的PCIe通道带宽。在传统设计中,PCIe交换机主要负责实现通道聚合,确保各驱动器只能获取总可用带宽中的一部分。
例如,Supermicro曾在2020年4月推出带有PCIe gen 3直连20驱动器设计的服务器2029UZ-TN20R25M。这款产品在处理器和驱动器之间设有80条PCIe gen 3带宽通道,对应每块驱动器4条通道。IBM此次宣称其推出了全球首款24抽屉PCIe直连系统确实没错,只是Supermicro在三年之前就已经推出了20块驱动器的版本。
根据蓝色巨人的介绍,与此前基于SAS的Power存储方案相比,PCIe直连选项将为Power服务器带来以下好处:
· 将直连IBM存储的每TB成本降低62%;
· 带来近10倍的I/O带宽(GBps)和高达3.7倍的每秒I/O操作(IOPS);
· 能够在单一E1080上直连最多1.2 PB的存储容量(单抽屉153 TB,最多可支持8个抽屉),并将每瓦容量提升超85%;
· 为大型关键数据库应用扩展必要的闪存系统容量;
· 本机引导最多可支持24个分区。
E1080是IBM推出的五款Power 10系列产品中的旗舰型号:
E1080提供8到32个PCIe gen 5适配器插槽(每节点8个),每个节点最多可支持4个扩展抽屉,可接入PCIe gen 4适配器。由此计算,每个系统(处理器)节点可支持6 x 16个PCIe gen 4,或者8个PCIe gen 5加2 x 8个PCIe gen 5 I/O薄型扩展槽(4节点系统中最多支持4 x 8即32个)。
IBM i产品线的技术更新将于今年5月发布,其中包括IBM Navigator for i改进,允许最终用户和系统管理员更好地访问、管理并监控自己的IBM i环境。由于SQL引擎能够利用Power 10的功能,因此运行复杂计划数据查询的客户将可借此实现性能提升。
IBM还为其Power 10 i环境提供磁带备份选项,包括:
· 新的4端口12 Gbps SAS适配器,速度至少相当于现有SAS适配器的2倍;
· 直连8 Gbps光纤通道磁带库或独立磁带存储设备;
· 支持LTO9磁带存储技术。
最后,IBM还与FalconStor Software合作,通过FalconStor提供的StorSafe虚拟磁带库(VTL)产品为Power工作负载提供企业级数据保护、灾难恢复、勒索软件保护和云迁移功能。该VTL能够为云和本地设施提供备份,因此用户可以将Power Systems工作负载迁移、备份和恢复至Power Virtual Server。它与备份软件配套使用,借助集成的重复数据删除技术清理冗余数据副本,借此降低容量要求并最大限度缩短复制时间。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。