长久以来,数据仓库方案供应商Teradata公司对于大数据业务一直保持着宗教信仰般的虔诚态度。就在本周三上午,该公司又宣布对咨询企业Think Big Analytics进行收购,这一消息已经得到相关双方的确认。Think Big是一家颇具知名度的企业,专长于处理Hadoop及NoSQL类技术难题,主要业务为帮助客户将上述方案整合至现有数据架构当中。
自2010年建立以来,Think Big公司的客户清单中已经包含多家知名企业。本次收购交易完成之后,该公司仍将在Teradata的麾下独立运作。Think Big公司联合创始人兼CEO Ron Bodkin指出,他的公司将继续以客户具有以及希望使用的技术方案为关注对象,其中包括与Teradata构成竞争关系的其它数据仓库产品。值得强调的是,Think Big并不会代替Teradata公司内的相关团队、接手此类技术方案的部署工作。
“我们会坚持Think Big的原有任务及关注重点,绝不动摇,”Bodkin表示。
Ron Bodkin
相反,此次收购更像是Teradata表明态度的一种方式——其“一招鲜,吃遍天”的业务定位并不会影响到公司的长远发展。Think Big在未来很可能承担起超大规模、高复杂度基础设施的部署工作,而同样介入其中的Teradata则只是整套体系中的组成部分之一——虽然明显是最大而且最昂贵的组成部分。与此同时,以Pivotal、IBM以及甲骨文为代表的竞争对手们则不断推动数据分析系统方案集合的整体发展。甚至连Cloudera这样的新兴企业都通过打造自家数据仓库方案践踏Teradata的固有领土——虽然在地位方面无法与后者相提并论,但其卖点在于以更低价格为客户提供更为可观的存储规模。
Teradata在过去几年中一直致力于解决这些问题,第一步就是于2011年收购基于MapReduce的探索性分析初创企业Aster Data Systems公司。在此之后,Teradata又与Hadoop新兴企业Hortonworks建立起亲密的合作关系。双方的合作协议为Teradata、Aster以及Hadoop系统的数据查询机制带来新型技术方案,而Teradata也已经推出了自己的白标Hadoop设备、并运行有Hortonworks发行版。去年十月,Teradata宣称其平台将开始支持JSON文件,并于今年六月宣布将与MongoDB进行整合。
今年七月,Teradata收购了Hadoop元数据管理初创企业Revelytix,并顺带将SQL on Hadoop先行者Hadapt公司招至麾下(此次收购价格很低,颇有清仓甩卖之感)。Teradata公司大数据实践业务总裁Randy Lea指出,收购Revelytix的举措已经让Teradata在众多备选系统方案当中跻身最佳分析与数据管理供应商之列。他表示,Hadapt拥有“一些非常有趣的技术方案与专业知识”,Teradata也将在后续的发展规划中为这部分技术设定推进方向。我们可以大胆推测,Teradata完全可以在Apache Hive之外、利用更多原生SQL选项来对其Hadoop设备加以增强。
Lea同时指出,Teradata作出收购Think Big的决策考虑到一系列原因,其中包括后者在大数据通道及数据科学应用程序方面具备一定知识产权积累、能够提供帮助员工快速适应Hadoop运作机制的培训项目、Storm、NoSQL以及其它相关技术。事实上,Teradata公司内部对于Hadoop以及开源技术的大力支持将帮助其更好地将自有技术方案与客户需要的其它产品进行调整与融合,从而保证其能够在无需就使用开源软件说服客户的前提下为自己的产品找到拓展之路。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。