2024年6月21日,HDC.2024华为开发者大会在东莞篮球中心拉开帷幕,在主题演讲中,通过华为终端BG首席执行官何刚的主题演讲了解到在日常用机场景中,恶意程序威胁依旧呈现逐年递增趋势,用户隐私泄漏的风险始终存在。因此华为全新自研的HarmonyOS NEXT星盾安全架构应运而生,依托强大的软硬协同能力和鸿蒙内核,构建了全新的安全体系和秩序,全流程保障应用生态纯净,让用户隐私安全体验迎来创新突破。

纵观HarmonyOS发展史,早在HarmonyOS 2问世时就首次面向用户推出纯净模式。随着HarmonyOS版本的更新,纯净模式也随之升级,面对应用恶意行为实施动态检测和管控。之后HarmonyOS 4推出应用管控中心,主动拦截应用恶意行为,降低风险。据官方统计,HarmonyOS日拦截恶意应用行为数从2022年的2亿次,到现在只需拦截700万次,应用获取用户隐私次数下降45%。然而HarmonyOS NEXT的革新安全技术,重新构建了操作系统的安全体系与秩序,基于软硬协同和鸿蒙内核的强大底座,给消费者提供了更加纯净的生态体验、可控的隐私保护和高安的数据保护,让用户无需担心病毒和恶意应用的骚扰。
应用安全管理机制革新,从来源到运行杜绝应用恶意行为
全新的HarmonyOS NEXT星盾安全架构从以前的纯净模式、应用管控中心等功能的管控,升级为从整个系统机制去治理。全新的应用市场拥有超过200种检测能力及数百名专家审核,不满足安全要求的代码和应用无法上架、安装,确保每一款应用都符合高标准要求,从源头确保应用纯净可靠,构建健康纯净的生态秩序。同时HarmonyOS NEXT还会全程守护应用的运行安全,若应用在运行过程中出现违规行为,则会禁止该应用运行,真正做到从应用来源到应用运行,从根源上杜绝恶意行为。

业界首创安全访问机制,用户按需授予系统数据
以往手机系统对于设备应用权限的获取,主要存在「应用权限申请不合理」以及「权限过度使用」两种情况,这也意味着用户的高铁行程、银行信息、快递单号等大量敏感隐私数据将在不知不觉中被应用访问并获取。而HarmonyOS NEXT以保护用户隐私为核心,重新审视应用权限获取的合理性,制定了严苛的隐私保护机制。

首先HarmonyOS NEXT全面梳理了所有系统授权,禁止开放通话记录、短信、电话、读取已安装应用列表等9类不合理权限,从根源上降低隐私泄漏的风险。
其次HarmonyOS NEXT推出业界首创安全访问机制,改变应用获取隐私数据的方式,让用户从管理「权限」到管理「数据」,按需授予系统数据。这样一来,当用户想要更换社交平台头像时,应用将无法再获取整个图库的访问权限,用户选择哪张照片,应用就得到哪张照片,将用户的隐私数据与应用之间受控隔离,全面守护用户隐私。

系统级文件加密分享机制,多人协同跨设备流转不惧泄密
守护个人隐私安全的同时,HarmonyOS NEXT在信息跨设备流转场景中也可获得系统级文件加密防护。用户通过手机或平板就可以对文件进行加密,分享出去后,只有授权的用户才能打开,不限应用,不限分享渠道,支持Word、PDF等多种文件类型,用户无需再为了保密而强调“不要转发”。

此次HarmonyOS NEXT星盾安全架构的问世,从根本上有效解决了生态作恶与隐私数据泄露的行业安全难题,真正做到全生命周期式保护用户隐私数据。同样也会保障开发者的合法权益,并为金融类生态安全业务伙伴保驾护航。在未来HarmonyOS NEXT星盾安全架构也将持续进化,为用户打造更安心、更舒心、更省心的HarmonyOS使用体验。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。