近日,美国科技信息评论杂志《CIOReview》评选出 “全球TOP20最具发展潜力HPC解决方案供应商”,浪潮作为全球领先的计算力提供商,与Cray、IBM、Nvidia及HPE等企业共同入选该榜单。
CIOReview杂志每年会对全球HPC厂商进行分析,通过对产品创新力、技术储备、解决方案开发、市场占有率及客户满意度等多维度综合评估,从全球筛选出20家在客户群体中影响力扩张迅速、推动HPC技术应用发展、成长潜力巨大的公司。目前,该榜单正在获得越来越多客户与HPC解决方案商的认可。CIOReview杂志认为,浪潮未来解决方案最大的优势在于帮助企业变得更加敏捷并与不断变化的需求保持同步,提供符合客户组织目标的、整体的、场景化的针对性解决方案。
在HPC领域,浪潮具有完整的HPC硬件产品线、领先的HPC应用优化支撑能力、完备的HPC系统软件开发能力,以及迅捷的HPC服务能力。在产品创新方面,覆盖风冷水冷基础架构、双路、4路以及8路、32路等全线服务器节点产品,如在ISC18国际超算大会上浪潮最新发布的创新设计服务器i48,既可作为新型的高密度计算模块完成整体系统的一致性、高密度和快速部署,同时也能根据应用数据容量和处理性能要求灵活配置计算节点与存储节点,能够更好的支持AI、HPC、NFV等业务所需的IT基础设施的构建。在2017年中国HPC TOP100榜单中,浪潮居厂商份额第一。在2018全球HPC TOP500榜单中,浪潮位居全球前三。
事实上,随着HPC技术的发展,AI正在从一个完全不同的方向交叉而来,为传统的HPC创造出一个高速成长的新兴应用领域,AI与HPC的融合正成为未来超算发展的必然趋势。当前,许多AI公司如百度、阿里、Facebook、谷歌、微软等等,都已建立起了计算性能可观的HPC系统,并将这些系统用于人工智能的机器学习和深度学习领域。据预测,全球AI市场从2016年近80亿美元将提升至2020年的470多亿美元,复合年均增长率为55.1%。对于所有的HPC厂商而言,谁能够更加快速、稳健的将业务扩展至AI这一新兴应用领域,谁就能够赢得市场先机。
在接受CIOReview采访时,浪潮全球AI&HPC总监Vangel Bojaxhi提到,浪潮被外界所看好的,正在于浪潮在HPC与AI领域的技术创新,以及在HPC与AI融合领域建立的坚实客户基础与高成长前景。如浪潮为华中师范大学设计建造基于“NVLink+Volta”的千万亿次超级计算机,用于加速物理前沿科学和自动驾驶AI技术研究,这其实就是HPC与AI技术融合的典型应用。
基于对AI未来发展趋势的判断,浪潮正致力于打造系统级的AI战略架构,充分挖掘AI基础架构的潜力。目前,浪潮已构建涵盖计算平台、管理套件、框架优化、应用加速四个层次的AI核心竞争力,可为客户提供GPU、FPGA等AI服务器系列、深度学习训练集群管理软件AIStation、AI性能调优工具Teye以及集群版开源深度学习框架Caffe-MPI等完整的AI基础架构服务。同时,浪潮也在不断完善深入行业场景的AI产业生态,和伙伴一起为用户提供端到端的AI整体方案,推进AI更广泛的商业化场景。据IDC最新数据报告显示,浪潮2017年中国AI服务器市场占有率达57%,超过其他厂商份额的总和。
Vangel Bojaxhi在接受采访时还表示:“浪潮希望充分发挥在AI和HPC领域的最大潜能,通过技术创新、定制化、场景化、世界一流的解决方案,更好的应对数据爆炸带来的挑战,促进AI与HPC技术发展,推动全球各行业技术应用与数字化升级。”
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。