怎样才算Cool(酷)?
少年的时候,觉得父亲骑着二八自行车,扶手上铝制饭盒叮当作响,是Cool;
中学岁月里,认为同桌的一双耐克鞋或是隔壁班同学收集的乔丹篮球卡,是Cool;
十八岁上大学,看到校园里在台上慷慨激昂讲话的学生会学长,也是Cool。
等到大学毕业、步入社会,乃至三十而立或是人过四十,才明白坚持做自己,坚持做自己认为有益的事情,坚持做人无我有、充斥着新鲜感的事情,才是最Cool。
那么在商业领域,一家什么样的公司才能够被称为“Cool”?
Gartner认为,在商业社会、IT领域,Cool代表着一家公司“拥有可以重塑行业的破坏性技术和商业模式创新”,意味着这虽然是一家过去没有被Gartner的报告垂青过的、创立时间不长的公司,但是这家公司具有领导某个垂直领域强大的、让人耳目一新的能力,稳健的把握了高热度的市场趋势。
这就是Gartner每年5月份的“固定栏目”——“Cool Vendor”评选,在一份不长的名单中,Gartner的分析师们从多达数十家被各个不同领域、不同国家和地区的分析师所提名的名单中——经过初期的筛选、集体评分、3-5次的分析师集体会议,再经由提名Cool Vendor的分析师的观点阐述、讨论和投票——最终筛选出寥寥几家最终入选当年Cool Vendor的上榜企业。
用Gartner研究总监汤彤妹的话说:“这要经过一个很长的流程,在分析师们接触了许许多多的备选企业,并在初期提名多达4、50家候选企业之后,数周甚至数月之后,才能够得到最终的名单,接下来,则由提名登上名单企业的分析师撰写针对这家Cool Vendor的报告。”
登上Cool Vendor名单,并不是一件容易的事,甚至于在艰难的竞争中,还有一丝运气的成分。按照汤彤妹的所说:“并不是每一个分析师都能够在一开始理解其它分析师对Cool Vendor提名企业的阐述,这是每一个分析师之间交流、学习,甚至是开阔眼界的机会,但也是分析师彼此之间说服的过程。”
严格来说,Gartner的Cool Vendor是有准确和清晰地评选标准的,汤彤妹说,分析师们选择Cool Vendor通常遵循如下三条标准:
第一,创新性,参评企业是否有前瞻性的技术、产品,是否能够为用户提供“以前没有听说过的、没有用过的”产品技术,是否能够为用户“创造全新的体验”;
第二,影响力,这一影响力并非是参评企业是否在行业或市场内具有影响力,而是其技术是否对用户的业务产生影响,在这一点上汤彤妹特别强调:“不完全都是技术上的考量,重要的是,技术能否对业务产生实质性的、建设性的影响,无论是to B还是to C。”
第三,这家企业在过去一年一定是引起了Gartner的关注的。每一年,Gartner的分析师们都会在各个领域寻找新鲜血液,搜寻行业内新兴发展起来的初创公司,加以关注和分析,从中挖掘其独特的价值。汤彤妹表示,入选Cool Vendor备选名单的,一定是Gartner认为“会让读者,无论是企业的经营者、IT管理者、投资人或是业界从业人员,都能够感兴趣的,能够引起Gartner的读者和客户去读的”。
“这些企业在商业上有独特的影响力,他们所处的领域正处在风口上,他们则处在各自领域的峰值上。”汤彤妹在电话采访中表示,“Cool Vendor包含了很多的创新性、创造性、革新性,能够做到‘没有别人能够提供我所提供的产品、技术或是服务’。”
以入选本次名单的唯一一家大数据公司百分点为例,这家企业所处的商业智能和分析领域不仅是Gartner所关注的热点市场,也是众多企业的CIO及业务决策者所密切关注的领域,Gartner对此的评价是:“对当前中国企业的CIO来说,商业智能和分析技术,是平衡IT运营和支持业务扩张的过程中,具有最高优先级的技术。”
与此同时,百分点所有的产品和技术都拥有自己的IP(知识产权),“能够帮助客户充分利用来自社交网络、移动互联网、物联网、内部应用程序数据、终端客户数据和第三方大数据源的数据。”
不仅如此,2015年9月,百分点推出了BD-OS,“第一个可视化的、全过程智能的大数据操作系统,为复杂的基础架构技术体系和便捷的数据管理之间,搭建重要的沟通、连接桥梁。”——这样一个推出之后很短时间内就获得微软、惠普、华为等业界领先供应商青睐,成为大公司们大数据解决方案中重要组成部分的产品。
此外,EasyStack则以中国唯一的开源云平台服务提供商入围,乐视云则以“Eco as a Service”方式交付视频云登榜。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。