在华为全联接2021上,面向数字基础设施的开源操作系统欧拉(openEuler)全新发布。欧拉操作系统可广泛部署于服务器、云计算、边缘计算、嵌入式等各种形态设备,应用场景覆盖IT(Information Technology)、CT(Communication Technology)和OT(Operational Technology),实现统一操作系统支持多设备,应用一次开发覆盖全场景。
欧拉全新发布
华为计算产品线总裁邓泰华表示,操作系统“碎片化”现状,导致数字基础设施产生大量“软烟囱”,带来生态割裂、应用重复开发、协同繁琐的挑战,数字化新时代,呼唤新的统一操作系统。
在ICT领域,华为提供服务器、存储、云服务、边缘计算、基站、路由器、工业控制等产品和解决方案,都需要搭载操作系统,所以华为一直在构建能力,旨在通过统一的操作系统架构来满足不同应用场景的需求。
本次欧拉全新升级,同时支持服务器、云计算、边缘计算、嵌入式等各种形态设备的需求。支持多样性计算,致力于提供安全、稳定、易用的操作系统;并通过为应用提供确定性保障能力,支持OT领域应用及OT与ICT的融合。至此全新发布的欧拉操作系统可覆盖从IT、CT到OT数字基础设施全场景。
欧拉:数字基础设施开源操作系统
欧拉创造性的提出全栈原子化解耦,支持版本灵活构建、服务自由组合,通过一套架构灵活支持南向多样性设备,北向全场景应用。
统一操作系统,支持多设备:
提供多设备协同套件,包括“边云”协同,统一数据、网络和管理;集群多节点协同,可支持PB级内存池,实现不同设备之间的能力互助和资源共享,发挥硬件最优性能。
应用一次开发,覆盖全场景:
欧拉Devkit提供跨设备开发向导、自动测试平台等插件,并可方便的集成到主流的应用开发平台。
欧拉与鸿蒙能力共享 生态互通
欧拉和鸿蒙已经实现了内核技术共享,未来计划在欧拉构筑分布式软总线能力,让搭载欧拉操作系统的设备可以自动识别和连接鸿蒙终端。后续进一步在安全OS、设备驱动框架、以及新编程语言等方面实现共享。通过能力共享、实现生态互通,“欧拉+鸿蒙”更好的服务数字全场景。
本次大会正式发布了第一个支持数字基础设施全场景的openEuler 21.09创新版本,将于9月30日在社区上线。该版本不仅对服务器和云计算场景能力进行了增强,还实现了对于边缘计算和嵌入式场景的支持。2022年一季度,欧拉开源社区将发布支持全场景融合的社区LTS版本,使能合作伙伴面向不同场景发布商业发行版。
欧拉自开源以来获得产业界的积极支持和响应,是中国最具活力的开源社区。截至目前,已有超过6000名开发者和100多家企业、高校、组织和机构加入欧拉社区,汇聚从处理器、整机、操作系统发行版厂商、到行业应用等全产业链,十多家主流操作系统系统领军企业发行基于欧拉的商业版本。欧拉的全新发布将吸引更多云、边缘、嵌入式领域伙伴加入社区,共同加速欧拉在数字基础设施全领域的广泛应用。华为将始终坚持在基础软件上的长期投入,联合全产业链合作伙伴,共同构建开放共赢的操作系统开源生态。
华为于2021年9月23-25日在线上举办华为全联接2021,大会以“深耕数字化”为主题,汇聚业界思想领袖、商业精英、技术大咖、先锋企业、生态伙伴、应用服务商以及开发者等各方,探讨如何深入行业场景,把数字技术与行业知识深度结合,真正融入政企的主业务流程,解决核心业务问题,催生体验提升、效率提升以及模式创新;并发布场景化的产品与解决方案,分享客户伙伴的最新成果与实践,构筑开放共赢的健康生态。欲了解更多详情,请参阅:https://www.huawei.com/cn/events/huaweiconnect
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。