12月16日,openEuler Summit 2023在北京国家会议中心召开。此次盛会由openEuler社区成员单位麒麟软件、统信软件、麒麟信安、华为、超聚变、英特尔、中科院软件所、软通动力和润和软件社区成员共同举办。
目前,openEuler系累计装机量已超过610万套,根据IDC预测,2023年openEuler系在中国服务器操作系统市场份额达到36.8%。openEuler社区已吸引1300+家头部企业、研究机构和高校加入,汇聚16800+名开源贡献者,成立100+个特别兴趣小组(SIG),openEuler开源社区已成为中国最具活力和创新力的开源社区。
携手9大海外开源基金会,构建全球开源新生态
openEuler致力于打造国际化开源协助平台,与国际主流基金会深度合作,已支持全球98%的主流开源软件。欧拉深度参与OpenChain、OpenSSF等全球主流软件供应链安全标准与规范的制定、推广,率先通过OpenChain ISO 5230开源软件协议认证,社区基础设施达到OpenSSF SLSA L3标准。此外,还与全球主流社区和组织合作,满足全球各区域本地化要求,规范欧拉开源社区的国际化治理。目前,openEuler社区与9大海外头部开源基金会开展深入合作,为150多个国家和地区提供服务。

英特尔宣布成为openEuler社区黄金捐赠人
英特尔(Intel)自2021年签署CLA加入openEuler社区,积极贡献x86平台的生态适配和技术优化,将x86的多代平台Ice Lake、SPR、Emerald Rapids引入到openEuler上,并将AI计算加速框架集成到openEuler,同时在openEuler的多个核心的SIG都有深入贡献。
会上,英特尔宣布正式成为openEuler社区的黄金捐赠人,将携手产业界共建操作系统生态底座,为全球开发者提供更优质的资源和支持。英特尔开源技术中心总监杨继国表示:“未来Intel将持续把Intel的上游开源项目集成到openEuler,并与openEuler共同在AI上持续发力,从软硬协同使能AI算力,满足各行业对于AI智算技术的需求。”

向欧拉捐赠,新增13个项目签署捐赠意向
自去年年底openEuler成立项目群后,各行业领域头部企业及开发者的项目开始不断加入,开源项目数量持续赠加,涵盖行业也日趋多样化。会上,来自中国移动云能力中心、联通数字科技有限公司、中国科学院软件研究所等8家公司的13个项目与openEuler项目群签订捐赠意向。来自不同行业和领域的捐赠项目为openEuler注入新的创新力量,进一步增强社区技术创新能力,促进社区生态繁荣。

openEuler十大联合创新成果走向行业用户
![]() |
openEuler把创新带给千行万业,openEuler & friends 4.0十大联合创新成果发布,浪潮UBML、浩瀚深度、英特尔、工商银行、京东、移动云、深信服、咪咕视讯、微众银行和中移在线10家企业围绕用户实际使用场景进行全流程、全场景的联合创新。openEuler通过强化跨平台支持和提升AI、ML支持,在为开发者提供更加方便、强大的技术支持,推动整个开源操作系统生态的繁荣和发展。
未来,openEuler社区将继续秉持“共建、共享、共治”的理念,通过与伙伴和全球开发者共同努力,推动基础软件技术的持续创新和应用,构建一个更加开放、多元的全球开源社区。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。