2024年6月21日,HDC.2024华为开发者大会在东莞篮球中心拉开帷幕,在主题演讲中,通过华为终端BG首席执行官何刚的主题演讲了解到在日常用机场景中,恶意程序威胁依旧呈现逐年递增趋势,用户隐私泄漏的风险始终存在。因此华为全新自研的HarmonyOS NEXT星盾安全架构应运而生,依托强大的软硬协同能力和鸿蒙内核,构建了全新的安全体系和秩序,全流程保障应用生态纯净,让用户隐私安全体验迎来创新突破。

纵观HarmonyOS发展史,早在HarmonyOS 2问世时就首次面向用户推出纯净模式。随着HarmonyOS版本的更新,纯净模式也随之升级,面对应用恶意行为实施动态检测和管控。之后HarmonyOS 4推出应用管控中心,主动拦截应用恶意行为,降低风险。据官方统计,HarmonyOS日拦截恶意应用行为数从2022年的2亿次,到现在只需拦截700万次,应用获取用户隐私次数下降45%。然而HarmonyOS NEXT的革新安全技术,重新构建了操作系统的安全体系与秩序,基于软硬协同和鸿蒙内核的强大底座,给消费者提供了更加纯净的生态体验、可控的隐私保护和高安的数据保护,让用户无需担心病毒和恶意应用的骚扰。
应用安全管理机制革新,从来源到运行杜绝应用恶意行为
全新的HarmonyOS NEXT星盾安全架构从以前的纯净模式、应用管控中心等功能的管控,升级为从整个系统机制去治理。全新的应用市场拥有超过200种检测能力及数百名专家审核,不满足安全要求的代码和应用无法上架、安装,确保每一款应用都符合高标准要求,从源头确保应用纯净可靠,构建健康纯净的生态秩序。同时HarmonyOS NEXT还会全程守护应用的运行安全,若应用在运行过程中出现违规行为,则会禁止该应用运行,真正做到从应用来源到应用运行,从根源上杜绝恶意行为。

业界首创安全访问机制,用户按需授予系统数据
以往手机系统对于设备应用权限的获取,主要存在「应用权限申请不合理」以及「权限过度使用」两种情况,这也意味着用户的高铁行程、银行信息、快递单号等大量敏感隐私数据将在不知不觉中被应用访问并获取。而HarmonyOS NEXT以保护用户隐私为核心,重新审视应用权限获取的合理性,制定了严苛的隐私保护机制。

首先HarmonyOS NEXT全面梳理了所有系统授权,禁止开放通话记录、短信、电话、读取已安装应用列表等9类不合理权限,从根源上降低隐私泄漏的风险。
其次HarmonyOS NEXT推出业界首创安全访问机制,改变应用获取隐私数据的方式,让用户从管理「权限」到管理「数据」,按需授予系统数据。这样一来,当用户想要更换社交平台头像时,应用将无法再获取整个图库的访问权限,用户选择哪张照片,应用就得到哪张照片,将用户的隐私数据与应用之间受控隔离,全面守护用户隐私。

系统级文件加密分享机制,多人协同跨设备流转不惧泄密
守护个人隐私安全的同时,HarmonyOS NEXT在信息跨设备流转场景中也可获得系统级文件加密防护。用户通过手机或平板就可以对文件进行加密,分享出去后,只有授权的用户才能打开,不限应用,不限分享渠道,支持Word、PDF等多种文件类型,用户无需再为了保密而强调“不要转发”。

此次HarmonyOS NEXT星盾安全架构的问世,从根本上有效解决了生态作恶与隐私数据泄露的行业安全难题,真正做到全生命周期式保护用户隐私数据。同样也会保障开发者的合法权益,并为金融类生态安全业务伙伴保驾护航。在未来HarmonyOS NEXT星盾安全架构也将持续进化,为用户打造更安心、更舒心、更省心的HarmonyOS使用体验。
好文章,需要你的鼓励
尽管全球企业AI投资在2024年达到2523亿美元,但MIT研究显示95%的企业仍未从生成式AI投资中获得回报。专家预测2026年将成为转折点,企业将从试点阶段转向实际部署。关键在于CEO精准识别高影响领域,推进AI代理技术应用,并加强员工AI能力培训。Forrester预测30%大型企业将实施强制AI培训,而Gartner预计到2028年15%日常工作决策将由AI自主完成。
这项由北京大学等机构联合完成的研究,开发了名为GraphLocator的智能软件问题诊断系统,通过构建代码依赖图和因果问题图,能够像医生诊断疾病一样精确定位软件问题的根源。在三个大型数据集的测试中,该系统比现有方法平均提高了19.49%的召回率和11.89%的精确率,特别在处理复杂的跨模块问题时表现优异,为软件维护效率的提升开辟了新路径。
2026年软件行业将迎来定价模式的根本性变革,从传统按席位收费转向基于结果的付费模式。AI正在重塑整个软件经济学,企业IT预算的12-15%已投入AI领域。这一转变要求建立明确的成功衡量指标,如Zendesk以"自动化解决方案"为标准。未来将出现更精简的工程团队,80%的工程师需要为AI驱动的角色提升技能,同时需要重新设计软件开发和部署流程以适应AI优先的工作流程。
这项由德国达姆施塔特工业大学领导的国际研究团队首次发现,当前最先进的专家混合模型AI系统存在严重安全漏洞。通过开发GateBreaker攻击框架,研究人员证明仅需关闭约3%的特定神经元,就能让AI的攻击成功率从7.4%暴增至64.9%。该研究揭示了专家混合模型安全机制过度集中的根本缺陷,为AI安全领域敲响了警钟。