日前IDC公布2017年中国AI基础架构市场调查报告,报告显示,2017年中国AI服务器整体销售额5.68亿美元,出货量27863台;从竞争格局层面,浪潮份额明显领先其他厂商,居市场第一,出货量达到14,674台,销售额达3.24亿美元,占比分别为52.7%和57%,超过其他厂商份额的总和。
AI仍是台风中心 未来五年GPU服务器占比16.6%
原引IDC报告,AI"仍然处于台风中心",2017年AI市场的整体投入达到8.65亿美元,同比增长240%,未来5年复合增长率将超过50%,AI市场包括了硬件、软件和服务三大细分领域。
硬件系统部署对于AI发展至关重要,也是AI市场主要构成,2017年AI硬件销售额同比增长235%,在AI整体市场占比72.4%,预计到2022年市场容量将达到37.7亿美元,其中GPU服务器采购将达34亿美元,占整体x86服务器市场的16.6%。
AI进入新纪元 互联网是主要推动力
互联网运营商仍然是AI发展的力量主体,采购额为4.07亿美元,占整体市场的71.7%。
2017年是AI发展转折性的一年。此前腾讯、阿里巴巴、百度投资构建的专业AI基础架构,以支持行为分析、搜索、广告点击预测等运营商内部业务系统为主,到2017年,几乎所有互联网运营商都开始加大AI业务投资,加快AI基础设施建设,一些大型CSP开始对外提供AIaaS云服务。
IDC数据显示,浪潮市场优势核心来自于互联网行业,市占率达68%。百度、阿里巴巴、腾讯TOP级运营商90%以上AI服务器来自浪潮,今日头条、科大讯飞、网易、平安等Tier2、Tier3互联网运营商和行业用户也在大批量采购浪潮的各类AI基础架构的系统方案及产品。
4GPU和8GPU出货占比提高
AI基础架构在实际应用驱动下快速更迭。以GPU服务器为例,由于GPU跨节点通信瓶颈问题,服务器支持的GPU数量越来越大。根据IDC报告,2017年4GPU和8GPU服务器出货比例提高,销售额占比分别为36.9%和25.8%。
浪潮是目前GPU服务器产品线最齐全的厂商之一,2017年相继发布了SR-AI 整机柜服务器、AGX-2超算服务器、GX4 AI加速扩展Box等AI新品。SR-AI是全球首个采用PCIe Fabric互联架构设计的AI方案,可实现支持16个GPU的超大扩展性节点,该方案最大支持64块GPU,并且很好的解决了供电与散热问题,这款产品符合天蝎2.5标准,适合于超大规模云数据中心部署。AGX-2是全球首款在2U空间内高速互联集成8颗最高性能GPU加速器的服务器,是目前性能密度最高的AI基础架构方案,适合于各种数据中心环境。
传统行业不可忽视
虽然当前AI发展和应用主体力量是互联网运营商,但是传统行业将是AI未来更大的发展空间,尤其是金融、电信、零售、医疗健康等行业的AI应用将会更快,制约AI在传统行业应用的主要问题是用户技术能力缺乏,尤其是AI系统方案的部署运维。
在不断巩固互联网优势的同时,浪潮构建了完整的AI系统平台,即计算平台、管理套件、框架优化、应用加速四个层次,包含GPU、FPGA等AI服务器系列、深度学习训练集群管理软件AIStation、AI性能调优工具Teye以及集群版开源深度学习框架Caffe-MPI等完整解决方案。
浪潮集团副总裁彭震表示,浪潮正在构建深入行业场景的AI产业生态,和伙伴一起为用户提供端到端的AI整体方案,推进AI更广泛的商业化场景。
新时代塑造新格局
彭震表示,数据中心层面的云计算变革和应用层面的AI变革将推动基础架构产业的创新与重构,浪潮业绩的高速增长得益四大动力,创新的JDM业务模式、智能工厂投产、开放计算推进及AI市场的提前布局,深耕AI仍将是2018年浪潮的核心策略之一。
在刚刚结束的IPF18浪潮云数据中心合作伙伴大会上,浪潮发布全新AI品牌--TensorServer,同时启动T计划。浪潮希望抓住新时代下的两大发展机遇,在5年内成为全球最大的计算方案供应商。
好文章,需要你的鼓励
DeepResearchGym是一个创新的开源评估框架,专为深度研究系统设计,旨在解决当前依赖商业搜索API带来的透明度和可重复性挑战。该系统由卡内基梅隆大学研究团队开发,结合了基于ClueWeb22和FineWeb大型网络语料库的可重复搜索API与严格的评估协议。实验表明,使用DeepResearchGym的系统性能与使用商业API相当,且在评估指标间保持一致性。人类评估进一步证实了自动评估协议与人类偏好的一致性,验证了该框架评估深度研究系统的有效性。
这项研究介绍了FinTagging,首个面向大型语言模型的全面财务信息提取与结构化基准测试。不同于传统方法,它将XBRL标记分解为数值识别和概念链接两个子任务,能同时处理文本和表格数据。在零样本测试中,DeepSeek-V3和GPT-4o表现最佳,但在细粒度概念对齐方面仍面临挑战,揭示了当前大语言模型在自动化XBRL标记领域的局限性,为金融AI发展提供了新方向。
这项研究介绍了SweEval,一个新型基准测试,用于评估大型语言模型在企业环境中处理脏话的能力。研究团队从Oracle AI等多家机构的专家创建了一个包含八种语言的测试集,模拟不同语调和上下文的真实场景。实验结果显示,LLM在英语中较少使用脏话,但在印地语等低资源语言中更易受影响。研究还发现较大模型通常表现更好,且多语言模型如Llama系列在处理不当提示方面优于其他模型。这项工作对企业采用AI技术时的安全考量提供了重要参考。
这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。