日前IDC公布2017年中国AI基础架构市场调查报告,报告显示,2017年中国AI服务器整体销售额5.68亿美元,出货量27863台;从竞争格局层面,浪潮份额明显领先其他厂商,居市场第一,出货量达到14,674台,销售额达3.24亿美元,占比分别为52.7%和57%,超过其他厂商份额的总和。

AI仍是台风中心 未来五年GPU服务器占比16.6%
原引IDC报告,AI"仍然处于台风中心",2017年AI市场的整体投入达到8.65亿美元,同比增长240%,未来5年复合增长率将超过50%,AI市场包括了硬件、软件和服务三大细分领域。
硬件系统部署对于AI发展至关重要,也是AI市场主要构成,2017年AI硬件销售额同比增长235%,在AI整体市场占比72.4%,预计到2022年市场容量将达到37.7亿美元,其中GPU服务器采购将达34亿美元,占整体x86服务器市场的16.6%。
AI进入新纪元 互联网是主要推动力
互联网运营商仍然是AI发展的力量主体,采购额为4.07亿美元,占整体市场的71.7%。
2017年是AI发展转折性的一年。此前腾讯、阿里巴巴、百度投资构建的专业AI基础架构,以支持行为分析、搜索、广告点击预测等运营商内部业务系统为主,到2017年,几乎所有互联网运营商都开始加大AI业务投资,加快AI基础设施建设,一些大型CSP开始对外提供AIaaS云服务。
IDC数据显示,浪潮市场优势核心来自于互联网行业,市占率达68%。百度、阿里巴巴、腾讯TOP级运营商90%以上AI服务器来自浪潮,今日头条、科大讯飞、网易、平安等Tier2、Tier3互联网运营商和行业用户也在大批量采购浪潮的各类AI基础架构的系统方案及产品。
4GPU和8GPU出货占比提高
AI基础架构在实际应用驱动下快速更迭。以GPU服务器为例,由于GPU跨节点通信瓶颈问题,服务器支持的GPU数量越来越大。根据IDC报告,2017年4GPU和8GPU服务器出货比例提高,销售额占比分别为36.9%和25.8%。
浪潮是目前GPU服务器产品线最齐全的厂商之一,2017年相继发布了SR-AI 整机柜服务器、AGX-2超算服务器、GX4 AI加速扩展Box等AI新品。SR-AI是全球首个采用PCIe Fabric互联架构设计的AI方案,可实现支持16个GPU的超大扩展性节点,该方案最大支持64块GPU,并且很好的解决了供电与散热问题,这款产品符合天蝎2.5标准,适合于超大规模云数据中心部署。AGX-2是全球首款在2U空间内高速互联集成8颗最高性能GPU加速器的服务器,是目前性能密度最高的AI基础架构方案,适合于各种数据中心环境。
传统行业不可忽视
虽然当前AI发展和应用主体力量是互联网运营商,但是传统行业将是AI未来更大的发展空间,尤其是金融、电信、零售、医疗健康等行业的AI应用将会更快,制约AI在传统行业应用的主要问题是用户技术能力缺乏,尤其是AI系统方案的部署运维。
在不断巩固互联网优势的同时,浪潮构建了完整的AI系统平台,即计算平台、管理套件、框架优化、应用加速四个层次,包含GPU、FPGA等AI服务器系列、深度学习训练集群管理软件AIStation、AI性能调优工具Teye以及集群版开源深度学习框架Caffe-MPI等完整解决方案。
浪潮集团副总裁彭震表示,浪潮正在构建深入行业场景的AI产业生态,和伙伴一起为用户提供端到端的AI整体方案,推进AI更广泛的商业化场景。
新时代塑造新格局
彭震表示,数据中心层面的云计算变革和应用层面的AI变革将推动基础架构产业的创新与重构,浪潮业绩的高速增长得益四大动力,创新的JDM业务模式、智能工厂投产、开放计算推进及AI市场的提前布局,深耕AI仍将是2018年浪潮的核心策略之一。
在刚刚结束的IPF18浪潮云数据中心合作伙伴大会上,浪潮发布全新AI品牌--TensorServer,同时启动T计划。浪潮希望抓住新时代下的两大发展机遇,在5年内成为全球最大的计算方案供应商。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。