10月19日,OPPO Find N3全球发布会开幕,正式发布了新一代折叠旗舰手机Find N3。这次,除了强调巧妙精美的设计理念之外,OPPO Find N3还将重心放在了安全隐私方面,搭载了国密二级安全认证的独立安全芯片,为个人与商务隐私数据提供硬件级的高安全性保障,带来“万物皆可锁”的全新安全体验。
这是一款定位超高端商务市场的折叠旗舰,此前万科创始人王石在出游过程中被偶遇手持OPPO Find N3新机拍照,网易CEO丁磊也在社交媒体分享了刘作虎赠送的OPPO新机,体验了为商务人士量身打造的“孤岛模式“。具备了高安全性的OPPO Find N3,直击高端商务人士的需求,带来满值的安全感和松弛感。
一直以来,OPPO持续在安全隐私领域发力,其中OPPO全方位的安全隐私保护能力——安第斯智能护盾,是OPPO自研、行业首创的应用全生命周期的安全隐私防护系统,全方位识别并拦截应用在上架、下载、安装、启动、运行、升级、卸载等各阶段的风险,为用户打造安全可靠的应用使用环境。
【安第斯智能护盾,OPPO手机的“安全大脑”】
安第斯智能护盾,是OPPO建设的端云协同、多产品联动的全方位应用安全隐私治理体系,相当于手机中的“安全大脑”,打通了OPPO手机生态内软件商店、浏览器、手机管家等多个产品,覆盖用户使用APP的所有场景。同时,AI能力的深度应用,使其在全生命周期内具备自动化检测能力,完成全方位的恶意行为拦截。
应用安全监测和恶意拦截,是保证用户的流畅用机体验的核心环节。依托安第斯智能护盾,OPPO内置的「应用智能管控中心」经过持续的功能迭代升级,实现对应用的智能检测分析,自动识别并拦截应用弹窗、异常耗电、异常保活等恶意行为,显著缓解用户面临的手机体验差的问题。据悉,安第斯智能护盾每天为终端用户拦截恶意应用1000万次,全方位打造最安全可靠的应用使用环境。
手机应用权限设置方面是否存在过度授权,同样是困扰用户的常见问题。面对这种情况,OPPO安第斯智能护盾推出了「权限建议」功能,在启动环节给到用户智能化的权限建议。此外,AI能力的深度应用,赋予了用户智能化、最小化、最合理的授权建议,提供更便捷、更轻量化响应的AI安全体验。同时,该功能还可以根据应用版本更新动态,及时提供权限设置修改建议,既灵活又便捷,上线后便收获了用户的广泛好评。
OPPO安第斯智能护盾还与蚂蚁安全实验室携手合作,研发出了“金融级恶意代码识别引擎”技术,帮助用户从源头上防堵恶意软件,实现无感拦截。用户仅需在系统设置中,打开「支付保护」服务,即可在确保个人隐私安全前提下,无感检测手机系统及应用的环境风险。从而,电诈等相关恶意软件得以提前被发现和拦截,手机本地的风险感知能力大幅增强。
【OPPO深化布局大模型能力,赋能安全隐私能力全面进化】
近期,OPPO还宣布将推出自主训练的大语言模型AndesGPT,并用在全新小布助手的底层架构上。升级后的新小布助手,将具备AI大模型能力,拥有更强的语义理解对话能力。而在全新小布能力正式对外开放之前,OPPO早已着手筹备相应的AI安全应对举措。
根据已有消息透露,OPPO目前已成立了安第斯AI安全实验室,专注于可信AI和生成式AI等领域,针对业界先进技术和领域相关安全技术进行重点研究投入,后期将会为更多AI产品提供坚实的安全技术支撑。
未来,OPPO自主训练的大语言模型AndesGPT,或将带动OPPO安全隐私保护能力全面进化,比如推出对恶意行为更准确AI识别与拦截、对模糊指令更精准理解、对复杂任务更高效处理等能力,进一步为用户打造智慧、轻松、无感操作的安全隐私守护体验。
总的来说,在数字安全备受挑战的时代,安全与隐私保护的重要性不可低估。虽然手机安全隐私问题不如手机性能、摄影摄像等方面得到大众的热切关注,但正因为这些持续优化的安全隐私能力,在看不见的地方提供时时刻刻的保护,大众才能够享受到无忧的移动支付、可信的应用程序,进而获得更加流畅且丰富的智能生活体验。这一系列的安全隐私能力,共同为用户提供了可信任的移动环境,未来也将持续夯实OPPO终端的安全地基。
好文章,需要你的鼓励
腾讯ARC实验室推出AudioStory系统,首次实现AI根据复杂指令创作完整长篇音频故事。该系统结合大语言模型的叙事推理能力与音频生成技术,通过交错式推理生成、解耦桥接机制和渐进式训练,能够将复杂指令分解为连续音频场景并保持整体连贯性。在AudioStory-10K基准测试中表现优异,为AI音频创作开辟新方向。
Coursera在2025年连接大会上宣布多项AI功能更新。10月将推出角色扮演功能,通过AI人物帮助学生练习面试技巧并获得实时反馈。新增AI评分系统可即时批改代码、论文和视频作业。同时引入完整性检查和监考系统,通过锁定浏览器和真实性验证打击作弊行为,据称可减少95%的不当行为。此外,AI课程构建器将扩展至所有合作伙伴,帮助教育者快速设计课程。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。