【2024年2月1日,美国圣何塞讯】Supermicro, Inc.(纳斯达克股票代码:SMCI)作为AI、云端、存储和5G/边缘领域的全方位IT解决方案制造商,推出适用于人工智能(AI)和机器学习(ML)数据存取的完整优化解决方案,覆盖从数据收集到高性能数据传输的各个环节。此全新解决方案能通过将GPU数据传输管道完全利用使AI价值实现时间最小化。在AI训练方面,该解决方案可收集、转换大量PB级原始资料,并加载到企业AI工作流程管道。这种多层式Supermicro解决方案通过证实可在生产制造环境中为人工智能运营(AIOps)和机器学习运营(MLOps)提供PB规模级数据量。Supermicro的多机柜级解决方案旨在降低落地风险,让组织能更快速地训练模型,并迅速将处理后的数据应用到AI推理。
Supermicro总裁兼首席执行官梁见后(Charles Liang)表示:“通过由每机柜20 PB高性能快闪存储容量所驱动并搭载四个专为应用优化的NVIDIA HGX H100 8-GPU的气冷服务器或搭载八个NVIDIA HGX H100 8-GPU的液冷服务器,客户能以机柜规模加速AI和ML应用运行。此项解决方案能为每个存储丛集提供270 GB/s的读取吞吐量和390万IOPS做为最低部署,并轻松扩大至数百PB的规模。借由使用具有PCIe 5.0与E3.S存储装置,以及WEKA Data Platform软件的最新Supermicro系统,这项通过场域测试的机柜级解决方案将可为使用者带来AI 应用性能的大幅提升。有了此项适用于 AI 训练的全新存储解决方案,客户将能完全发挥我们最先进GPU服务器机柜级解决方案的使用潜能,进而降低总拥有成本(TCO)并时提高AI性能。”
为了使GPU有成效地运行,具备低延迟、高带宽数据处理性能的GPU服务器必须要能存取用于大规模 AI 训练运行的未结构化PB量级数据。Supermicro拥有基于Intel和AMD技术的广泛存储服务器产品组合,是AI管道必不可少的要素。这些产品包括Supermicro Petascale All-Flash存储服务器,其中每部服务器拥有983.04* TB的NVMe Gen 5快闪数据容量,可提供高达230 GB/s的读取带宽和3,000万IOPS。本解决方案还包括适用于容量物件层级并具备90个存储硬盘槽的Supermicro SuperServer存储服务器。全球客户已可取得此经过测试的完善解决方案并用于ML、GenAI和其他复杂计算的工作负载。
全新存储解决方案包含:
· All-Flash层级 - Supermicro Petascale Storage Servers
· 应用层级 - Supermicro 8U GPU服务器:AS -8125GS-TNHR 和 SYS-821GE-TNHR
· 物件层级 - Supermicro 90 drive bay 4U SuperStorage Server,运行Quantum ActiveScale物件存储
· 软件:WEKA Data Platform和Quantum ActiveScale物件存储
· 交换机:Supermicro InfiniBand 和以太网络交换机
WEKA总裁Jonathan Martin表示:“具高性能和高度快闪数据容量的Supermicro PB级All-Flash存储服务器能与WEKA的AI原生数据平台软件完美互补搭配,并为现今的企业AI客户提供空前的速度、规模和简易性。”

Supermicro将在一场网络研讨会中介绍其优化存储架构的更多细节。若要参加该场于2024年2月1日举办的直播网络研讨会,或观看Supermicro和WEKA的网络研讨会回放。
*原始值是基于30.72 TB的厂商原始基本容量。TB是以10为基础的十进制。30.72 TB E3.S SSD的取得需视厂商供货状态而定。
关于Super Micro Computer, Inc.
Supermicro(纳斯达克股票代码:SMCI)为应用优化全方位IT解决方案的全球领导者。Supermicro的成立据点及运营中心位于美国加州圣何塞,致力为企业、云端、AI和5G电信/边缘IT基础架构提供领先市场的创新技术。我们正转型为全方位的IT解决方案制造商,提供服务器、AI、存储、物联网、交换器系统、软件及服务,并供应先进大量主板、电源和机箱产品。这些产品皆由企业内部团队设计及制造(在美国、亚洲及荷兰),通过全球化运营实现极佳的规模与效率,并借运营优化降低总体拥有成本(TCO),以及经由绿色计算技术减少环境冲击。屡获殊荣的Server Building Block Solutions®产品组合让客户可以从极多元形式的系统建构中自由选择具高度弹性、可重复使用的建构组件,使工作负载与应用达到最佳效能。这些建构组件支持各种外形尺寸、处理器、内存、GPU、存储、网络、能耗和散热解决方案(空调、自然气冷或液冷)。
Supermicro、Server Building Block Solutions和We Keep IT Green皆为Super Micro Computer, Inc. 的商标和/或注册商标。
所有其他品牌、名称和商标皆为其各自所有者之财产。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。