北京大学-八分量“区块链与隐私计算”联合实验室于2024年5月8日下午在北京大学英杰交流中心星光厅举办研究进展与前沿技术研讨会。
姚卫浩部长致辞
本次研讨会分享了联合实验室自2022年3月成立以来在区块链、隐私计算领域的重要研究成果与最新进展,汇聚学术界和工业界的专家学者、研究人员和技术从业者,共同探讨该领域的最新趋势和未来发展方向,涵盖了区块链、隐私计算、AI大模型安全与隐私保护等多个方面,为与会者提供了一个深入交流、共同探讨的平台,促进学术交流与合作,推动联合实验室在区块链与隐私计算领域的创新与发展。
吴中海院长致辞
阮安邦董事长致辞
北京大学出席的领导有,北京大学科技开发部部长姚卫浩、副部长郑如青,北京大学软件微电子学院院长吴中海、副院长刘力锋,北大软微学院网络软件与系统安全系系主任等;特邀出席的国内专家有,北京大学网络空间安全研究院院长、安全密码工程研究中心主任徐茂智,中国科学院计算所区块链实验室主任、CCF区块链专委副主任孙毅,密码科学技术全国重点实验室副主任张江,以及华为2012系统安全技术实验室主任、华为系统安全首席科学家谭寅等;特邀线上参与的国外专家有,剑桥大学计算机学院副研究员、兼任牛津大学软件工程学院特聘讲师吴连龙,中英人工智能协会执行会长、创始人,之江实验室海外青年专家委员李振海,帝国理工大学人工智能研究院研究员、FLock.io创始人孙家昊,Sophos公司首席工程师张星,Bay Current Consulting公司Web3事业部负责人贾思雨等。
前沿技术研讨会
密码科学技术全国重点实验室副主任张江研究员,在会上做特邀报告“基于快速盲旋转的同态加密自举技术”,指出当前密文自举是实现全同态加密的唯一技术路径,也是阻碍全同态加密走向实际应用的主要性能瓶颈。报告介绍了实现密文自举的三种主流方法以及它们的优缺点。并给出一种新的部分同态加密算法和快速盲旋转技术。基于此提出了一种与密钥分布无关的新型全同态加密算法。与国际同类算法比较,提出的算法计算性能提升了2.1倍,存储代价降低了2.9倍。该报告内容已发表于美密会2023。
信息安全国家重点实验室副主任陈恺研究员,在会上做特邀报告“大模型安全:机遇与挑战”,指出大模型的出现对安全研究产生了重要影响:一方面它可赋能传统攻防手段,使其更为智能和高效;另一方面,其自身的安全问题,如“幻觉”问题、隐私问题等,也引发了人们在使用大模型时的担忧。此次报告重点讲述如何使用大模型用以赋能传统安全攻防,也会讲述大模型自身的安全问题等。
通过线下咨询和指导的方式,来自国内的专家学者,针对联合实验室成立以来取得的阶段性研究成果给予了充分的肯定,并提出了许多好的建议。
线上圆桌论坛
通过线上圆桌论坛的方式,来自国外的专家学者,针对区块链、大模型、去中心化隐私计算等前沿技术,与线下专家进行了共同探讨。
北京大学-八分量区块链与隐私计算联合实验室
北京大学软件与微电子学院院长、联合实验室指导委员会主任吴中海,八分量创始人、联合实验室指导委员会副主任阮安邦,北京大学软件与微电子学院教授、联合实验室主任沈晴霓,八分量联合创始人、联合实验室副主任魏明等代表联合实验室出席和主持了本次研讨会。
研讨会与会人员集体合影
北京大学-八分量区块链与隐私计算联合实验室,是八分量与北京大学共同成立的校级联合实验室,主要围绕我国关键软件核心技术问题,开展区块链与隐私计算方向的前沿技术研究和攻关,共同推进区块链与隐私计算软件平台、算法、系统与应用等方面合作研发,促进应用落地,通过共同努力和协同创新,取得自主可控、国内领先与国际一流的研发成果。为企业发展与科研进步提供新的发展契机,同时也为服务国家大数据战略培养出更多的高素质应用型人才方面贡献价值。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。