近日,国家超算互联网开展“体验官”招募计划,将邀请1500名来自全国科研、制造业、人工智能等领域的应用研发者与使用者,作为国家超算互联网首批公测用户,助力国家超算互联网优化迭代平台功能,提升算力商品全流程交付体验。
每位“体验官”提交有效的体验问卷后,均可获得价值500元的算力资源礼包,且每日上午9时起,提交问卷的前5名用户,还可享计算资源礼包翻倍( 价值1000元)福利;若提交体验报告且反馈“直击痛点”,每人可获得1000~2000元现金奖励,并有机会获得超算互联网的公开鸣谢。名额有限,先到先得,即刻扫码填写《公测名额申请表》,抢先体验超算互联网已上线的3000多款算力商品。
数据显示,我国算力规模近五年年均增速近30%,算力运用已成为科学研究和企业创新的必备技能。本次“体验官”招募计划,则为一线科研、技术人员提供了丰富的算力应用实践机会。
国家超算互联网是由部委支持和指导,致力于打造集算力网络、应用、服务、资源于一体的国家级算力服务平台,以紧密连接供需双方,通过市场化运营和服务体系,实现算力资源在全国内的统筹调度。在国家超算互联网上,用户可像“网购”一样“开箱即用”海量的科研、人工智能、工业仿真等多领域应用,目前已有超3000款算力商品入驻国家超算互联网平台,可满足用户不同领域的科研和创新需求。
“体验官”招募时间截至2024年3月,期待更多科研、制造业、人工智能等领域“达人”加入国家超算互联网,为前沿算力服务发展注入新活力。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。