以“绘就智慧民航发展新蓝图”为主题的2023年智慧民航发展论坛在京开幕。本届论坛由中国民航局信息中心主办、中国民航报社联合主办,首都机场集团、华为技术有限公司等单位共同协办。华为公司副总裁、机场与轨道军团CEO李俊风在论坛中发表主题演讲,分享华为以“云数智行,数智底座”助力民航智能化升级的实践成果。

华为公司副总裁机场与轨道军团CEO李俊风发表主题演讲
全栈智能化能力,助力民航业务提质增效
“十四五”规划纲要把“智慧民航”作为数字中国建设的重要应用场景列入其中,将智慧民航建设作为行业高质量发展的重要抓手,旨在不断为智慧民航建设解难题、增活力、开新局。
华为公司副总裁、机场与轨道军团CEO李俊风在主题演讲中提出,“千行万业数智化转型升级的道路上,数智底座就像一棵树的根。多年来,华为深耕‘根’技术,基于软硬件协同创新,为行业智能化升级保驾护航。作为行业智能化的重要参与者,华为机场与轨道军团致力于为智慧民航建设提供创新的解决方案,以全栈智能化能力,夯实数智底座,驱动民航智能化升级。”
目前,华为机场与轨道军团已在多个机场系统中推出了全栈智能化解决方案,助力民航业务提质增效。在高效运行方面,华为智能机位分配方案能够实现将机位分配作业从人工经验变为AI智能分配,有效提升分配效率与科学性。基于数智底座的大数据建模和天筹求解器,融合7大业务系统、170多项核心数据及2800+分配规则,实现“机器为主、人工为辅”的智慧化分配,提升机场靠桥率7%,有效降低场面风险,大幅度升级旅客体验;方案已在深圳机场T3航站楼和卫星厅部署应用,并成功入选IATA全球首个新旅行体验技术(NEXTT)典型案例。
在机场防护场景中,华为推出的智慧机场光感围界解决方案,采用分布式光纤传感,能更准确识别出风雨的振动干扰,实现全天候、全覆盖、长距离、“0”漏报、极低误报等功能,误报率每公里每天<1次,极大提升围界智能防护水平。方案在成都双流机场长期测试中,取得了非常好的测试效果,并在广东机场集团实现商用部署。
云数智行,助力民航业高质量发展
云数智行是将云计算与物联网、大数据、人工智能等技术相结合,构建智能化的民航服务生态系统。比如通过将航空公司、机场、航空控制部门等各方数据进行整合和分析,可以实现航班调度优化、安全风险预警、旅客个性化服务等方面的突破。
智慧民航主要包含四个智慧抓手,即“智慧运行、智慧空管、智慧机场、智慧监管”,每一个环节都至关重要。
如何落实智慧之举,应聚行业之智,聚焦智慧机场、航司和空管建设等典型应用场景,共建共享民航大模型。而针对航空气象大模型等跨域大模型应用场景,李俊风呼吁“精准气象预测是行业共性需求,华为愿与行业客户及生态伙伴一起,基于华为气象大模型,联合行业伙伴,助力民航运行安全、效率水平提升。”
做为行业智能化实践探索的典范,深圳市机场(集团)有限公司副总经理赖锋表示:“作为国家重要的战略性公共交通行业,民航安全面临巨大挑战,深圳机场通过构建多个业务运作的信息系统,聚焦于'一平台、四场景'的构想。通过整合系统的数据,构建智慧运行管控的一张图,实现机场运行态势的集中可视。该系统支持航班运行管理、鸟情管理、近空管理、事件管理等功能。”深圳机场与华为合作,实现航空器数字化域情管理多重场景,引入AI算法实现航空器机位的自动化、智能化分配,大幅提高航班靠桥率,并通过升级版本覆盖了航站楼的登机口、值机柜台、行李转盘等保障资源分配,全面优化了管理。
面向未来,华为将进一步加大对民航业务的技术创新和应用探索,加强与机场、航空公司、合作伙伴等各方的深入合作,共同推动民航业务的智能化升级,携手民航飞得安全、飞得更稳,为旅客提供更安全、更高效和更便捷的出行体验。
好文章,需要你的鼓励
B&H近期对多款M5 Pro MacBook Pro机型推出300美元优惠。14英寸M5 Pro版本(48GB内存+1TB固态硬盘)现售价2299美元,较原价2599美元节省300美元,且该配置在亚马逊无法购买,折扣机会更为难得。此外,16英寸M5 Pro版本(64GB内存+1TB固态硬盘)同样享有300美元折扣。B&H在多款高配MacBook机型上的定价已低于亚马逊,是近期可找到的最优价格。
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
Insta360推出GO 3S复古套装,将现代4K运动相机与胶片时代美学结合。套装核心仍是仅重39克的GO 3S,新增复古取景器、胶片风格滤镜、NFC定制外壳及可延长录制时长至76分钟的电池组。复古取景器模仿老式腰平相机设计,鼓励用户放慢节奏、专注构图。相机内置11种色彩预设及负片、正片等滤镜,同时保留FlowState防抖、4K拍摄及10米防水能力,面向热衷复古影像风格的年轻创作者。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。