隐私保护VS数据共享,如何取舍?
现代人的日常生活,总是无法彻底根除广告推送与隐私泄露,大家应该都经历过在网上搜索一个商品后各种平台都给疯狂推送同类产品的情况。其实这就是最明显也最让人后怕的隐私泄露问题。试想一下,如果你的个人爱好、生日、姓名…全部被泄露到了网上,是不是就相当于你本人被无数双眼睛在盯着? 好在现在人们都逐渐觉醒了隐私意识,监管部门、企业、个人也都开始注意隐私的问题。
隐私计算迎元年,联邦学习让数据“可用不可见”
2020年,《数据安全法(草案)》、《网络数据安全标准体系建设指南(征求意见稿)》、《电信和互联网行业数据安全标准体系建设指南(征求意见稿)》等监管政策相继出炉,数据安全问题备受重视,隐私计算有望迎来新的发展突破。政策的出台从中央层面夯实了2020年隐私计算元年地位的权威性,与此同时,根据国际调研机构Gartner最新的一份战略科技趋势预测显示:隐私计算成为2021年重点深挖的9项技术之一,到2025年,将有一半的大型企业机构使用隐私计算在不受信任的环境和多方数据分析中处理数据。
隐私计算涉及到多种技术,包括安全多方计算、联邦学习、差分隐私、可信执行环境等,每个技术既在各自领域独立发展,也呈现出融合统一的趋势。其中联邦学习可以说是为人工智能“量身定制”的隐私计算解决方案,也是平安科技蜂巢联邦智能平台的核心技术,可以实现在保护用户隐私的前提下建模,建模所交换的是模型的中间参数和梯度,最大程度保护用户隐私。
就具体加密手段而言,针对不同的性能要求,蜂巢联邦智能平台可以提供不同等级的加密模式,对于加密要求严格的业务方,提供了国密SM4的加密模式,除此之外,还支持同态加密、差分隐私等,以适应更多的业务场景。在实际的建模和推理过程中,重要的模型参数、每个用户本地的数据等关键信息都是存放在安全容器中的,每一次访问都需要经过安全审计和加密,以此达到保护用户隐私的效果。简单来说就是用技术手段,帮助企业实现数据“可用不可见”,让不同来源的数据安全共享,产生更大价值。
隐私保护前提下,企业如何实现数据“共同富裕”?
大数据时代,数据的运用是一把双刃剑。每一个个人都能享受到着大数据带来的便利,却又担心着个人隐私的泄露。如何在保护隐私的情况下,让个人端和商业端共赢,实现全行业共同的增益?让AI落地加速推进,也能平稳着陆?
平安科技给出的答案是基于联邦学习、联邦推理等核心技术,支持国密级加密方式的蜂巢联邦智能平台解决方案,目前蜂巢联邦智能平台已经成为解决当下数据难题与隐私保护的一大利器,助力企业建设跨企业、跨数据、跨领域的大数据AI生态。
那么,究竟如何做到既让数据便利你我,又让数据不被泄露?让数据不离开本地或许是一种解决方案。以健康险定价场景为例,保险企业拥有用户的基础数据,然而单一维度的数据并不能满足企业的业务需求,这时候利用蜂巢联邦智能平台,可以联合一些用户健康、运动数据进行联邦建模,在数据不出本地、不侵犯用户隐私的情况下,收集到一些用户日常习惯、健康运动等维度的数据,例如一年体检几次、体检报告情况,每天的运动量等。扩充用户健康信息的数据联合建模可以让保险公司精准了解客户健康状况,进而给出更加精确地保险定价,达到赋能业务的效果。
平安科技蜂巢联邦智能平台研发团队称:我们的初衷,是希望企业或部门之间能够达成数据不出本地的一种合作机制,大家能够把自己的数据贡献出来,共同去完成建模过程。从2018年至今,平安科技蜂巢联邦智能平台已经服务营销、获客、定价、风控、智慧城市和智慧医疗等多个场景,评获了“2020年CCF科技进步优秀奖、2020IDC数字化转型金融奖”等人工智能行业重磅奖项,还被授予工信部2020年网络安全应用示范试点单位,同时整个团队在联邦智能技术上也获得了包括专利、论文在内的诸多科研成果。
隐私泄露是一个很严重的问题,在数据黑产泛滥的今天,个人、企业、监管部门都必须做出改变。个人应该增强自己的隐私意识,企业和监管部门则要增强数据壁垒,阻碍数据泄露。安科技蜂巢联邦智能平台为所有企业做出了一个领头的作用,既保证了数据安全,又解决了用户数据隐私泄露的问题,可以让用户在享受网络便捷性的同时又完全无需担心隐私泄露。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。