浪潮以黄金会员身份参加OpenStack波士顿峰会,与来自全球各地的社区成员、应用开发者、云基础设施与服务提供商以及各领域用户,共同探讨了OpenStack的技术发展、商业进程与生态构建。峰会期间,浪潮展示了最新发布的OpenStack发行版云海OS 5.0,分享了在多个行业中的OpenStack项目实施经验。

浪潮在OpenStack Summit展台
从历年峰会可以观察到的显著变化是,OpenStack在社区建设与组件完善上取得了令人瞩目的成就。目前OpenStack社区有来自186个国家和地区的700家企业和机构参与,贡献代码超过2000万行,是世界上发展最快的开源社区。同时,OpenStack对一些广受关注的技术,如Docker、OVS、NFV、Spark等的支持力度更高、兼容性更好,致力于成为云技术的"集成引擎",让"世界运行在开源架构之上"。可以说,随着社区规模持续扩大和技术不断完善提升,未来OpenStack的商业化进程将会更快,这从近两年西班牙国际银行、英国Sky广播公司、中国移动、中国电信等越来越多的用户亮相峰会就可略窥一斑。

OpenStack Summit大会现场
OpenStack云海OS 5.0海外首秀
在此次峰会上,浪潮展示的云海OS 5.0是浪潮面向下一代云数据中心和云原生应用开发的智慧云操作系统,它全面基于OpenStack架构,并提供卓越的功能性(Functionality)、可用性(Availability)、安全性(Security)和工具化(Toolchain)优势,进一步扩展云服务目录,采用微服务架构,支持Docker快速部署,实现用户业务的自动感知、资源的智能管理和服务的自动化交付。
浪潮集团副总裁彭震表示,推动开源技术普惠是驱动浪潮积极参与OpenStack的重要因素。浪潮将秉承"源于开源、高于开源"的理念,通过不断创新推出更加成熟、易用的OpenStack产品,帮助全球用户构建开放的云基础设施,并在此基础上以智慧计算促进数字化转型,实现商业上的成功。
智慧计算是浪潮未来最看重的战略级市场,它包含了云计算、大数据和深度学习,即 "以云计算为基础平台,以大数据为认知方法,以深度学习为优化工具"。而作为智慧计算的基础平台,浪潮在云计算业务上将充分发挥计算、存储和网络硬件层和云数据中心操作系统软件层的全布局优势,向客户交付完整的云基础设施。
回馈开源,加速OpenStack技术普惠
目前,浪潮云海OS已经成功应用于政府、能源、电信、环保、教育等行业超过2000+企业用户。在推动OpenStack实践上,浪潮在某银行实施了国内最大规模基于OpenStack部署的金融生产云,规模接近1000个物理节点,创新性的实现了互联网金融业务与OpenStack开源云平台的深度结合,确保了业务快速创新、快速部署、快速上线。光大证券也与浪潮合作新建OpenStack环境,将原有的虚拟化集群和新建虚拟化环境统一纳入浪潮云海OS云平台管理,实现1000台物理服务器规模的数据中心管理。
同时,浪潮也入选了美国CIOReview杂志评选的"2017全球20家最具发展潜力OpenStack解决方案供应商"。
浪潮在OpenStack社区的活跃度与贡献度也增长明显。在最新Ocata版本中,浪潮在Sahala组件Commit贡献排名第2位,在核心组件NOVA和NEUTRON的Review贡献分列第9和第10。未来,浪潮将进一步提升OpenStack社区贡献率,更好的回馈开源。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。