近日,国际数据公司(IDC)最新发布了《中国半年度液冷服务器市场(2023上半年)跟踪》报告。其中,宁畅市场表现瞩目,液冷服务器(高密度计算)和液冷服务器(标准机)分别以79%和31.9%的市场占有率,双双问鼎上半年产品出货量第一名。

2023年中国液冷服务器市场迎来爆发式增长。IDC报告显示,2023上半年中国液冷服务器市场规模达到6.6亿美元,同比增长283.3%。面对激烈的市场竞争,宁畅全面的液冷商业布局已领先行业多个身位,稳居液冷赛道第一梯队。根据此前赛迪顾问发布的数据,宁畅2023年上半年液冷服务器市占率增速高达500%,位居第一。
为更好匹配不同场景需求,宁畅构筑起强大的产品矩阵,现已覆盖从冷板式液冷到浸没式液冷的多种形态,相关技术与服务贯穿从液冷产品研发、测试、生产、交付全链条,致力于为用户提供从服务器到数据中心的全系统液冷解决方案。
基于深厚的研发投入,宁畅液冷技术已应用于通用、高密度计算、人工智能等多种类型服务器,助力产品快速迭代升级。以高密度计算服务器为例,从B5000 LP冷板式液冷到B7000浸没式液冷,宁畅服务器产品计算性能和散热密度显著提升,推动整体PUE降至1.05。此外,宁畅最新的B8000整机柜服务器在架构上进行了进一步探索,实现水+电+网三路盲插,为用户带来了更加安全、放心的使用体验。
根据IDC预计,2027年中国液冷服务器市场规模将达到89亿美元。在广阔的市场空间下,宁畅液冷解决方案将帮助高质量绿色算力在更多应用场景落地。

好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。