当下这个时候可以被称之为大数据的尴尬阶段。尽管很多软件公司声称开发出了更好的数据治理和处理工具,但是对于大多数企业来说数据仍然是庞大的、多样的、难以应对的。但是最终,繁重的工作将被我们抛在身后,我们可以专注于开发闪亮的分析工具,读懂客户的心声,对吗?好吧,其实没有那么快。
Forrester Research副总裁、首席分析师Gene Leganza表示,随着时间的推移,他对首席数据官(CDO)的看法也发生了变化。他以前认为,因为很多CDO一开始是扮演补救的角色,现在他们更多地承担了管理和维护的角色,而下一步自然而然的可能就是成为首席分析官,只专注于面向客户的应用。
但是如果可以选择,谁会希望做枯燥的数据管理?每个拥有数据技能的人都会选择直接分析,而且"两年下来,你就会遇到数据管理问题,"Leganza在今年美国麻省理工学院举行的首席数据官CDO论坛上这样表示。
解决方法就是"让对分析的浓厚兴趣和很酷的东西弥补数据管理中很枯燥的部门,将两者结合在一起,"他说。
先试后买
Leganza还谈到了在现阶段向企业售卖数据理念的挑战。"没有人愿意改变自己的行为,除非对他们有什么好处。"
他谈到一个很讽刺的事实,那就是你工作的时候必须时刻考虑整个企业,而不是孤立地思考问题。但问题是,数据的角色仍然是不确定的,"你必须有非常明确的案例来显示数据的价值。"
Leganza认为,从小的试点项目开始着手,来证明数据的价值,然后扩大到整个企业的范围,这对于数据科学家和CDO来说可能是最好的策略。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。