高校是人才培养的摇篮、科技创新的重镇、文化传承的高地,始终站在推动科技进步的最前线。
如今世界各地的高校科研人员畅游在数据的海洋,希望利用AI(人工智能)从海量数据中发掘新的价值,助力化学、物理学、生物学和许多其他科学领域取得新的突破。超级计算机作为最复杂的高性能计算机(HPC),在从海量数据中产出可执行的洞察力方面,发挥着日益重要的作用。

由英特尔至强可扩展处理器支持的 HPC 以软硬件 AI 加速为基础,正在广泛赋能全球研究人员和数据科学家,助力他们加速获得大规模复杂数据集的分析结果,并从中获取洞察。
高性能计算推动的鲁汶大学科研创新
鲁汶大学是比利时北部佛兰德地区的研究型大学,是欧洲科研型大学联盟(League of European Research Universities, 缩写LERU)的创始成员,不仅面向欧洲,而且面向世界。长期保持世界上最具创新力大学的前五名。
“我们的核心追求是创新,鲁汶大学想要为用户提供一流的高性能计算系统,帮助他们发现新的洞察,获得领先于其它大学的竞争优势。我们认为AI是支持科研的一个有力手段,而高性能计算在其中扮演着重要的角色。这一新系统毫无疑问能帮助我们的研究人员探索未知,发挥优势作用。” 鲁汶大学的Jan Ooghe讲到。
HPE与鲁汶大学合作,共同开发并部署一台专门运行AI工作负载的新型超级计算机——“Genius”(天才)。该系统是基于英特尔至强可扩展处理器打造的高性能计算,实现了为AI工作负载提供源源不断的计算力。该系统将为学术界和工业界搭建应用,推动佛兰德地区的科研突破、经济增长和持续创新。
“Genius” 作为运行人工智能工作负载而构建的新型超级计算机。将成为佛兰德超级计算机中心(VSC)的一部分,为鲁汶大学和比利时哈塞尔特大学(Hasselt University)的研究人员以及佛兰德计超级算机中心服务。它将支持多样化的科研工作,包括分子模型、工程、物理、化学、气候研究、天文及天体物理或心理学。并允许科学家尝试新的方法,设计、构建和优化加速机器学习模型训练和推理的算法。如今该系统部署在鲁汶大学主校区内一个绿色环保的数据中心内。
英特尔助力HPE高性能计算加速AI应用
从天气预测、飞机设计、能源勘探再到基因绘制、生物工程,数据集、神经网络和人工智能工作量的规模和复杂性不断增加,加上对人工智能准确性的需求不断增加,导致训练系统需要大量的计算能力。基于英特尔至强可扩展处理器,HPE能够将基于高性能计算 (HPC)打造的更具创新、更加优质的产品和服务推向市场。
超级计算机“Genius”采用的HPE Apollo k6000集群解决方案,该集群部署了96台基于第三代至强可扩展处理器HPE Gen10计算服务器和20台新兴的技术服务器HPE Apollo sx40,总共有4176个英特尔至强可扩展处理器 6140内核提供总计600万亿次理论计算能力和28TB内存,为深度学习和高性能计算工作负载提供强有力支撑。
英特尔软硬件创新使面向 AI 解决方案的HPC设计和构建变得更加容易,加速了关键的人工智能训练工作量,包括图像分类、对象检测、自然语言处理、文本到语音、情感分析、推荐系统等。通过能够简化主流端到端数据科学工具的英特尔优化方案,并在 oneAPI 开放标准支持下,英特尔® 至强® 可扩展处理器让数据从业者能够更加快速轻松地打造并广泛部署更智能的模型,更简单地从概念验证阶段 (PoC) 顺利过渡到生产阶段。
借助采用英特尔® 至强可扩展处理器的解决方案,HPE Apollo k6000集群通过更少的IT开销来最大限度的加快人工智能部署、释放洞察。
英特尔® 至强® 可扩展处理器内置 AI 加速功能,可支持必要的高性能 AI。英特尔® 处理器特有的基于英特尔® AVX-512扩展的英特尔® DL Boost 矢量神经网络指令 (VNNI) ,可优化 AI 性能,助力在更短的时间内快速获取洞察。
英特尔® oneAPI AI 分析工具套件中的低精度优化库使 HPC 和 AI 平台的编码变得更加容易,同时也提高了性能并保持了准确度阈值。
面向机器学习的英特尔® FPGA 支持高度并行化,有助于加速从 HPC 和 AI 工作负载中获取结果和洞察。
面向 HPC 和 AI 融合集群,通过在融合 HPC 平台上部署 AI 工作负载的途径,HPC持续为科研院校的大规模 AI 模型训练和推理提供加速动力。
好文章,需要你的鼓励
华盛顿大学Pedro Domingos教授提出的张量逻辑是一种革命性的AI编程语言,它通过将逻辑推理与张量代数在数学层面统一,实现了符号AI和神经网络的深度融合。该语言仅使用张量方程这一种构造,就能优雅地实现从Transformer到形式推理、从核机器到图模型等多种AI范式,更重要的是开辟了在嵌入空间中进行可靠推理的新方向,有望解决大型语言模型的幻觉和不透明性问题,成为推理、数学和编码模型的理想语言。
中科院研究团队发现AI模型存在严重的跨语言推理缺陷:英语训练优秀的模型在其他语言上表现平平。研究揭示了三个重要规律:首次平行跃迁现象、平行扩展法则和单语言泛化差距,证明当前AI过度依赖英语特有模式而非通用推理能力。通过"并行训练"策略,仅增加一种平行语言就能将跨语言能力提升115%,为构建真正全球化AI系统指明方向。
科技巨头IBM今日宣布推出新的区块链数字资产平台,专为金融机构和受监管企业设计。该平台名为"数字资产避风港",将为银行、企业和政府提供比特币、以太坊、稳定币和代币化资产的安全管理服务。平台由IBM与数字钱包基础设施提供商Dfns合作开发,支持超过40个公链和私链的全生命周期管理,并集成第三方身份验证和反洗钱合规工具。
卡内基梅隆大学和斯坦福大学研究团队提出RLAD方法,让AI学会像人类一样先从解题过程中总结经验,再运用这些"推理抽象"指导解题。该方法使用双AI协作训练,在AIME 2025等数学竞赛中比传统方法提升44%准确率,甚至实现了弱AI指导强AI的现象,为构建更智能的AI系统提供了新思路。