10月16日,在北京举行的2018 XDF赛灵思开发者大会上,浪潮联合赛灵思宣布推出全球首款集成HBM2高速缓存的FPGA AI加速卡F37X,可在不到75W典型应用功耗提供28.1TOPS的INT8计算性能和460GB/s的超高数据带宽,适合于机器学习推理、视频转码、图像识别、语音识别、自然语言处理、基因组测序分析、NFV、大数据分析查询等各类应用场景,实现高性能、高带宽、低延迟、低功耗的AI计算加速。
浪潮集团副总裁李金在2018 XDF赛灵思开发者大会发表主题演讲
F37X是浪潮专为AI极致性能设计的尖端FPGA加速卡,它采用Xilinx Virtex UltraScale+架构,提供285万个系统逻辑单元和9024个DSP单元,INT8计算性能达到了28.1TOPS,集成8GB HBM2高速缓存,带宽达460GB/s,相比单DDR4 DIMM提升20倍。当AI计算模型尺寸小于HBM2容量时,可全部预先载入高速缓存之中,消除了外部读写带来的数据传输延迟并提高处理速度,使AI计算完全放到片上成为可能。性能数据显示,浪潮F37X在AI图像识别实时推理场景,基于GoogLeNet深度学习网络模型,当BatchSize=1时性能高达8600 images/s,是CPU性能的40倍。F37X典型应用功耗仅为75瓦,性能功耗比高达375Gops/W。此外,F37X板载24GB DDR4内存及双端口100Gbps高速网络接口。F37X设计为全高半长PCI-E 3.0板卡,紧致的尺寸可使得单台AI服务器支持更多加速卡设备,从而提供极限计算与通信性能。
全球首款集成HBM2的FPGA AI加速卡F37X
F37X可支持C/C++、OpenCL和RTL三种主流的编程语言开发环境。相应SDx工具套件内含SDAccel?、Vivado?及SDK工具,应用已有的OpenCV、BLAS、Encoder、DNN、CNN等加速库,实现对主流深度学习框架如Caffe、TensorFlow、Torch、Theano等的支持,覆盖机器学习推理、视频图像处理、数据库分析、金融、安全等典型AI应用领域,提供强大的生态支持,具备更加出色的易编程性,可灵活快速开发和迁移不同的AI定制算法应用,在软件生产力上实现了质的飞跃。
浪潮集团副总裁李金表示:“AI正以前所未有的速度重构产业创新,AI算法将不断快速迭代,线上推理将成为AI计算的主要场景。浪潮一直致力创新FPGA软硬件技术,帮助客户持续获得领先的AI计算竞争力。浪潮F37X加速卡将为全球用户提供快速可定制、实时高性能、高密低功耗的先进的FPGA解决方案,加速AI应用的线上部署。”
赛灵思公司数据中心销售副总裁Freddy Engineer表示:“浪潮因产品执行和创新而享誉全球。浪潮将为客户提供搭载Xilinx加速卡的服务器,我们为此而自豪。我们非常高兴能成为浪潮的开发合作伙伴,联合推出突破性产品F37X,它通过HBM2提供前所未有的内存带宽,将加速数据分析、AI和需要最低延迟数据访问的工作负载。”
浪潮是全球领先的AI计算力厂商,从计算平台、管理套件、框架优化、应用加速等四个层次致力于打造敏捷、高效、优化的AI基础设施。浪潮帮助AI客户在语音、图像、视频、搜索、网络等方面取得数量级的应用性能提升。据IDC《2017年中国AI基础架构市场调查报告》显示,浪潮AI服务器市场份额达57%高居第一。
好文章,需要你的鼓励
三星与AI搜索引擎Perplexity合作,将其应用引入智能电视。2025年三星电视用户可立即使用,2024和2023年款设备将通过系统更新获得支持。用户可通过打字或语音提问,Perplexity还为用户提供12个月免费Pro订阅。尽管面临版权争议,这一合作仍引发关注。
浙江大学团队提出动态专家搜索方法,让AI能根据不同问题灵活调整内部专家配置。该方法在数学、编程等任务上显著提升推理准确率,且不增加计算成本。研究发现不同类型问题偏爱不同专家配置,为AI推理优化开辟新路径。
苹果M5 MacBook Pro评测显示这是一次相对较小的升级。最大变化是M5芯片,CPU性能比M4提升约9%,多核性能比M4 MacBook Air快19%,GPU性能提升37%。功耗可能有所增加但电池续航保持24小时。评测者认为该产品不适合M4用户升级,但对使用older型号用户仍是强有力选择。
清华大学研究团队提出SIRI方法,通过"压缩-扩张"交替训练策略,成功解决了大型推理模型"话多且准确率低"的问题。实验显示,该方法在数学竞赛题上将模型准确率提升43.2%的同时,输出长度减少46.9%,真正实现了效率与性能的双重优化,为AI模型训练提供了新思路。