戴尔使用第三方合作伙伴的软件,配合自家服务器、存储和网络硬件/软件,共同构建起一套数据湖/智能湖仓参考架构设计方案。
与Databricks、Dremio、SingleStore和Snowflake等同类厂商一样,戴尔建立的也是统一的智能湖仓架构。其中的基本思路,就是提供一套统一的通用存储,无需运行提取、转换和加载(ETL)流程就能选择原始数据,再以合适的形式存储在数据仓库内以方便使用。总体来看,这就像是在数据湖内又建立了一个虚拟数据仓库。
戴尔ISG解决方案营销总监Chhandomay Mandal还专门为此撰写博文,表示“传统数据管理系统,例如数据仓库,几十年来一直负责存储结构化数据以供分析使用。但数据仓库在设计上无法承载体量愈发庞大的数据集合。戴尔此次设计的参考架构使用第三方合作伙伴的软件,配合自家服务器、存储和网络硬件/软件,共同建立起数据湖/智能湖仓。这套方案能够直接支持文本、图像、视频、物联网等多种数据,还支持需要直接访问数据的人工智能与机器学习算法。”
他提到,“如今,很多组织已经将数据湖与数据仓库结合使用——将数据存储在湖内,之后再复制到仓库里以降低访问难度。但这无疑增加了分析环境的复杂性和使用成本。”
最好能在单一平台上解决所有需求。而戴尔Data Lakehouse提供的分析验证设计能够直接支持商务智能(BI)、分析、实时数据应用、数据科学及机器学习。这套方案基于PowerEdge服务器、PowerScale块/文件统一存储阵列、ECS对象存储及PowerSwitch网络。该系统可以安装在本地或托管设施当中。

块/文件存储示意图
其中采用的软件技术包括Robin Cloud Native Platform、Apache Spark(开源分析引擎)、Kafka(开源分布式事件流平台)以及Delta Lake技术。Databricks的开源Delta Lake软件以Apache Spark为基础,戴尔之前就一直在内部智能湖仓中使用。
戴尔最近还与乐天集团收购的Roin.IO及其开源Kubernetes平台开展合作。
戴尔最近宣布与Snowflake达成外部表访问协议,并表示此次Data Lakehouse智能湖仓的设计概念也用到了这一协议。据推测,未来Snowflake外部表将可以直接引用戴尔智能湖仓中的数据。

戴尔还发布了上面这张演示文稿,看起来是相当复杂。该解决方案的具体信息参见下表:

很明显,这不是那种能拿来即用的系统。在跟戴尔签订协议之前,客户还认真研究自己到底要使用哪些组件和选型。
有趣的是,HPE也推出了颇为相似的产品Ezmeral Unified Analytics,其中同样使用到Databrick的Delta Lake技术、Apache Spark和Kubernetes。HPE本周将举办Discover活动,预计届时将发布更多消息。从这个角度看,戴尔好像是故意要抢先一步。
好文章,需要你的鼓励
亚马逊云服务部门与OpenAI签署了一项价值380亿美元的七年协议,为ChatGPT制造商提供数十万块英伟达图形处理单元。这标志着OpenAI从研究实验室向AI行业巨头的转型,该公司已承诺投入1.4万亿美元用于基础设施建设。对于在AI时代竞争中处于劣势的亚马逊而言,这项协议证明了其构建和运营大规模数据中心网络的能力。
Meta FAIR团队发布的CWM是首个将"世界模型"概念引入代码生成的32亿参数开源模型。与传统只学习静态代码的AI不同,CWM通过学习Python执行轨迹和Docker环境交互,真正理解代码运行过程。在SWE-bench等重要测试中表现卓越,为AI编程助手的发展开辟了新方向。
当今最大的AI数据中心耗电量相当于一座小城市。美国数据中心已占全国总电力消费的4%,预计到2028年将升至12%。电力供应已成为数据中心发展的主要制约因素。核能以其清洁、全天候供电特性成为数据中心运营商的新选择。核能项目供应链复杂,需要创新的采购模式、标准化设计、早期参与和数字化工具来确保按时交付。
卡内基梅隆大学研究团队发现AI训练中的"繁荣-崩溃"现象,揭示陈旧数据蕴含丰富信息但被传统方法错误屏蔽。他们提出M2PO方法,通过改进数据筛选策略,使模型即使用256步前的陈旧数据也能达到最新数据的训练效果,准确率最高提升11.2%,为大规模异步AI训练开辟新途径。