在AI4S的蓬勃发展下,应用先进的科研工具,辅助生信研究已经成为了各大机构、院校、实验室以及企业的常态化需求。而由广州实验室主办,Bio-OS社区承办的首届Bio-OS开源开放大赛,旨在挖掘和培养该领域人才,促进生物科学、数据科学和人工智能的交叉融合,为生物信息学的发展做出贡献。
经过一个多月的激烈角逐、层层选拔,最终25支参赛团队凭借优异的技术能力、领先的方案思路荣获大赛各个奖项。大赛的颁奖仪式在火山引擎AI for Science闭门研讨会上举行,中国科学院院士、广州实验室副主任徐涛致辞。
徐院士致辞
徐院士指出,当前,大数据和人工智能已经成为推动科学研究的重要驱动力。广州实验室与火山引擎联合开发的开源开放的生物医学大数据操作系统Bio-OS,能够不断积累和沉淀各类生命科学研究相关数据集和工具资源,可使用户方便快速地完成大数据的挖掘分析任务,为生命健康科研创新搭建了通用性、基础性的技术支撑底座。作为全新的生物医学信息分析支撑底座,Bio-OS的开发和应用需要全社会力量的共同参与,而开源是重要的实现路径。希望通过Bio-OS开源开放大赛活动汇聚更多国内外相关领军高校院所、企业和开源社区力量,不断迭代升级,形成新时代生物医学领域的核心智力和技术资源融合创新平台。
本届大赛,以“开源共赢,科学无限”为宗旨,共设立论文复现挑战赛、任务挑战赛、开源贡献打榜赛三大赛道,参赛团队和选手需在生物医学大数据操作系统Bio-OS的基础上,通过Bio-OS进行生物信息学研究,或是为Bio-OS平台拓展功能和应用。大赛共吸引了来自全球45所高校、16所科研机构、8家企业单位的187支团队、217名选手参与。大赛历经报名、初赛、初赛评审、线下总决赛四个阶段。在12月6日举办的线下总决赛当中,15支入围决赛的参赛团队和选手们汇聚北京上演巅峰对决,来自中国科学院、国家级研究中心、知名大学、火山引擎等单位的知名教授、国家特聘青年人才、行业资深专家共同组成评审团经过严格答辩评审,最终决选出了一等奖、二等奖、三等奖以及优胜奖。
线下总决赛现场
清华大学生命学院教授、中国生物信息学终身成就奖获得者、中国生物信息学学会筹备委员会核心组负责人孙之荣,中国科学院院士、国家特聘教授、长江学者、北京大学生物医学前沿创新中心(BIOPIC)主任张泽民,本届大赛主席、广州实验室研究员李亦学等专家领导为获奖团队和选手颁奖。
嘉宾们为获奖团队/选手颁奖
开源共赢,科学无限!本届大赛的圆满举办,不仅为Bio-OS开源开放提供了更广泛的途径,积累了一大批优秀的种子成员,也为生物科学、数据科学、人工智能的相互融合提供了全新的思路。未来,广州实验室将持续与生物信息学研究人员、开发者、数据科学家们深度联合,共同探寻生命健康数据密集型科研创新发展的崭新路径!
2024 Bio-OS开源开放大赛
2024 Bio-OS 开源开放大赛即将开始启动报名,现邀请广大高校学生、生信领域爱好者与大家一起探索生物信息学发展的新趋势与新方向,参与实训,挑战自己。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。