五月底,Gartner正式发布了Gartner 2016 China Cool Vendor名单,在经过汤彤妹前述所说的复杂、长期、严格的评选之后,“仅有五家在云计算、大数据和移动领域引领了市场趋势并专注在市场创新上的公司”上榜,就这份名单及Gartner的相关评价,我们来聊聊第二个重要的问题:为什么我们需要Cool Vendor?
众所周知,Gartner的Cool Vendor评选,一向只选取创新性的、规模较小的、知名度相对局限在一定范畴内的技术、产品或服务供应商,这些公司必须是自主经营的公司或是独立核算的子公司,“需要提供新颖的或是创新的技术或服务,并且这些技术或服务将会有很大的潜力与可能将会对市场和业务发展带来具有重要意义的价值,或是甚至有可能去改变市场中现有的供应商格局”。
用当下流行的话说:Cool Vendor是一群小而美的公司。
与大公司相比,中小公司的成功与发展更为依赖创新,曾经在十年前入选过Cool Vendor评选的Skype、让Facebook头疼不已的Snapchat和入驻了几乎绝大多数年轻女性手机的Instagram,无不是典型例子。在企业级市场,十几年前还很弱小的VMware、如今火得一塌糊涂的Nutanix和异军突起的Splunk,也都是依靠创新发展起来的典范。
正是创新成就了中小公司的成长,而中小公司的成长,则将这些创新以更容易为大众和行业所接受的方式释放到行业中,产生前所未有的对行业的改变的力量,相比大公司复杂的流程、效率更低的管理以及庞杂的人事/资源协调体系,一些“神奇的点子”更容易在中小公司中快速的落地、生根、发芽和结果。
Gartner对Cool Vendor的鼓励,从某种意义上来说,“就是对行业创新性、独创性和革命性的鼓励,并通过Gartner这样一个触角广泛的平台,向着企业用户、行业合作伙伴、技术人员甚至是投资界人士传达出去,进而促进这些初创企业获得更进一步的发展。”
同样将目光转向此次的Gartner 2016 China Cool Vendor名单,如果不是百分点这家公司,我们如何想象,会有一家公司能够“利用自身的超过5.5亿的用户全网画像,以及超过1亿的商品全网画像,帮助客户利用先进的算法技术、不同数据来源,开发出创新的业务成果、有效的管理数据资产,并实现数据价值。”(Gartner报告在Why Cool这一部分对百分点的评价)
除此以外,百分点开发了丰富的方法来获取数据、评估和提高数据质量,帮助企业融合多来源、异构的数据并加以适度、可靠、有效的分析,特别是其底层技术,建立在复杂的、一般企业难以驾驭多种技术融合的基础上,比如说自然语言处理器、Ontology(本体论)、Knowledge Graph(知识图谱)、知识学习等,这难道不Cool么?
另一家上榜企业APICloud则利用其提供的客户端应用程序开发平台、云管理和第三方云服务集成,大大降低了应用开发者的投资,使移动应用开发人员能够构建具有无缝体验的跨平台应用的一站式解决方案。
这家公司提供的SuperWebView可以促进原生(Native)和网页(Web)移动应用的融合;数据云服务则在帮助开发者和企业在线设计NoSQL数据表,动态生成RESTFul API——在APICloud的帮助下——开发者和企业能够“使用标准WEB技术(HTML5)轻松开发iOS、Android原生应用”,这难道不Cool么?
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。