Hadoop正在大肆鲸吞数据仓库业务的固有领土,而数据库供应商们则密切关注着这一高利润业务门类所受到的影响动向,Wikibon首席研究贡献人Jeff Kelly在文章中写道。
在最近的Hadoop峰会上,数据仓库供应商IBM、Teradata、微软以及甲骨文等纷纷强调Hadoop只能作为数据仓库方案的初步辅助手段。他们指出,Hadoop目前仍不成熟,还无法胜任安全性及近实时分析等关键性领域的重要职责。有鉴于此,Hadoop可以作为向传统数据仓库交付数据的理想平台,但却无法彻底取代后者。
而以IBM为代表的一部分厂商也指望着自己的分析产品及其它高利润专业服务能够充当缓冲手段,抵消低成本Hadoop及其它相关开源技术在冲击其高价数据库业务产品时所带来的营收损失。
Kelly指出,这些供应商有着自己的关注视角。在Wikibon最近进行的一次大数据调查当中,有61%的受访者表示他们已经将至少一种工作负载由传统数据仓库或者大型机中转移到Hadoop平台之上,而另外34%的受访者则表示已经有计划在未来六个月内作出尝试。
开源Hadoop平台亲民的价格设置是其最具吸引力的特质所在。而它容纳“全部数据类型”的能力则是另一大亮点。随着多家成熟供应商开始向市场推出基于Hadoop的SQL产品,该平台将逐步发展成一套更为实用的分析引擎。
不过供应商们的主张也没错,数据仓库在短时间内仍然不可取代,Kelly写道。尽管某些分析工作交由Hadoop处理效果更好,但也有不少仍然更适合数据仓库来打理。他给出的结论是,供应商应该接受Hadoop将逐步发展成“数据中心内的一等公民”这一现实,并应该将自家产品及服务重新定位成“帮助使用者将保存在Hadoop中的原始数据转化为可供高管层直接使用的可操作结论”的附加值方案。
正如Wikibon的其它研究项目一样,这份专业警示材料也在Wikibon官方网站上以免费形式供大家查阅。IT专家还可以应邀在Wikibon社区中注册为免费会员,从而参与到相关研究当中、对研究议程作出反馈并发表自己的研究成果、提出问题以及处理意见。
好文章,需要你的鼓励
随着人工智能和高性能计算持续推动需求增长,数据中心设计正以同样惊人的速度演进。曾经的高密度机架已成为标准配置,冷却系统在数月而非数年内完成重新设计,项目在各地区的规模和复杂性不断提升。全球工程设计咨询公司Black & White Engineering指出,液冷成为标准配置、极端机架密度管理、工业化规模交付、电网约束下的电力创新、AI驱动运营设计以及可持续性成为核心设计原则,将成为2026年塑造数据中心设计、建设和运营的六大关键趋势。
Allen AI研究所联合多家顶尖机构推出SAGE智能视频分析系统,首次实现类人化的"任意时长推理"能力。该系统能根据问题复杂程度灵活调整分析策略,配备六种智能工具进行协同分析,在处理10分钟以上视频时准确率提升8.2%。研究团队创建了包含1744个真实娱乐视频问题的SAGE-Bench评估平台,并采用创新的AI生成训练数据方法,为视频AI技术的实际应用开辟了新路径。
Snowflake本周推送的一次更新导致全球范围内的"重大故障",用户长达13小时无法查询数据、文件导入失败并收到错误信息。初步调查显示,最新版本引入了不向后兼容的数据库架构更新,导致版本不匹配错误。此次故障影响了全球23个区域中的10个,包括美国、欧洲和亚洲多个数据中心。这是Snowflake一周内第二次发生事故。
中科院团队首次系统评估了AI视觉模型在文本压缩环境下的理解能力,发现虽然AI能准确识别压缩图像中的文字,但在理解深层含义、建立关联推理方面表现不佳。研究通过VTCBench测试系统揭示了AI存在"位置偏差"等问题,为视觉文本压缩技术的改进指明方向。