美光公司是新近加入OpenMP架构审查委员会(简称ARB)的又一家企业成员,该委员会由多家供应商及研究机构共同组成,旨在推动这一高人气共享式内存并行编程模式的相关标准得以尽快出台。
作为一家内存厂商人,美光公司已经成为OpenMP ARB 14家软件与硬件厂商成员中的一员,希望通过长期努力为OpenMP构建起多个相关项目。目前有9位辅助成员正致力于参与标准制定,但却并未创建或者销售任何OpenMP产品,其中包括美国宇航局、德克萨斯高级计算中心、桑迪亚国家实验室以及休士顿大学。
美光公司实际上是通过收购Convey Computers公司成为OpenMP ARB俱乐部成员的,美光软件开发编译器经理John Leidel指出。继续参与该倡议并在标准的开发与推进工作当中扮演积极角色,代表着美光公司正在逐步走向自身固有的内存厂商局限,转而以内存技术参与者的身份涉足软件业务领域,他在今年于德克萨斯州奥斯汀市参加Supercomputing 2015大会时在采访当中指出。
"越来越多的用户开始要求各类配套性质的软件、工具以及编程模型,"他表示。"OpenMP在支持共享式内存编程模型方面则拥有强大的传统优势。"随着美光方面一步步建立其非易失性DIMM(简称NVDIMM),Leidel解释称,并考虑到其在DRAM与混合式内存立方(简称HMC)领域的开发尝试,美光已经意识到自身需要在不同平台之间解决软件可移植性这一重要难题,而OpenMP正是支持各类异构式内存架构的绝佳选项。
Leidel指出,美光公司希望将OpenMP标准作为该公司系统集成方案当中的固有组成部分,并让自身工作成果以规范形式为其它成员所广泛采纳,包括IBM、惠普以及德州仪器(简称TI)等等。

德州仪器提出的面向异构式系统芯片的OpenMP 4.0加速器模型。
OpenMP ARB营销协调员兼富士通公司代表Matthijs van Waveren指出,共享式内存已经开始作为一大应用层面而快速发展。OpenMP API是一套可移植且可扩展的实现模式,允许并行程序员们利用一套简单而灵活的接口实现面向多种平台的并行应用程序开发工作,其中包括各类嵌入式系统、加速器设备、多核心系统以及共享内存系统。而OpenMP本身最初于1997年以未正式标准的姿态开始为计算机科学家们所采用。
目前已经有一系列厂商在自家产品当中为OpenMP提供支持,van Waveren表示。举例来说,德州仪器公司就在其KeyStone多核心架构中支持OpenMP API,其负责支持异构式编程以及将德州仪器的定点与浮点TMS320C66x数字信号处理器(简称DSP)核心与ARM Cortex-A15 MPcore处理器加以结合。另外,德州仪器旗下的C66x DSP也是第一款能够支持OpenMP API的多核心DSP设备。
在这一领域,OpenMP标准将迎来极为广阔的适用空间,van Waveren补充称,而未来其具体用例还将进一步增长,其中包括车辆制造商进行的车体碰撞模拟与分析乃至航空公司进行的机翼模拟与降阻实验等等。
OpenMP API 4.0规范发布于2013年7月,其支持加速器编程、SIMD编程并利用线程亲和性实现了良好的优化效果。该版本还加入了一套新机制,旨在描述数据与/或计算在向其它计算设备迁移时所对应的代码区域。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。