戴尔使用第三方合作伙伴的软件,配合自家服务器、存储和网络硬件/软件,共同构建起一套数据湖/智能湖仓参考架构设计方案。
与Databricks、Dremio、SingleStore和Snowflake等同类厂商一样,戴尔建立的也是统一的智能湖仓架构。其中的基本思路,就是提供一套统一的通用存储,无需运行提取、转换和加载(ETL)流程就能选择原始数据,再以合适的形式存储在数据仓库内以方便使用。总体来看,这就像是在数据湖内又建立了一个虚拟数据仓库。
戴尔ISG解决方案营销总监Chhandomay Mandal还专门为此撰写博文,表示“传统数据管理系统,例如数据仓库,几十年来一直负责存储结构化数据以供分析使用。但数据仓库在设计上无法承载体量愈发庞大的数据集合。戴尔此次设计的参考架构使用第三方合作伙伴的软件,配合自家服务器、存储和网络硬件/软件,共同建立起数据湖/智能湖仓。这套方案能够直接支持文本、图像、视频、物联网等多种数据,还支持需要直接访问数据的人工智能与机器学习算法。”
他提到,“如今,很多组织已经将数据湖与数据仓库结合使用——将数据存储在湖内,之后再复制到仓库里以降低访问难度。但这无疑增加了分析环境的复杂性和使用成本。”
最好能在单一平台上解决所有需求。而戴尔Data Lakehouse提供的分析验证设计能够直接支持商务智能(BI)、分析、实时数据应用、数据科学及机器学习。这套方案基于PowerEdge服务器、PowerScale块/文件统一存储阵列、ECS对象存储及PowerSwitch网络。该系统可以安装在本地或托管设施当中。

块/文件存储示意图
其中采用的软件技术包括Robin Cloud Native Platform、Apache Spark(开源分析引擎)、Kafka(开源分布式事件流平台)以及Delta Lake技术。Databricks的开源Delta Lake软件以Apache Spark为基础,戴尔之前就一直在内部智能湖仓中使用。
戴尔最近还与乐天集团收购的Roin.IO及其开源Kubernetes平台开展合作。
戴尔最近宣布与Snowflake达成外部表访问协议,并表示此次Data Lakehouse智能湖仓的设计概念也用到了这一协议。据推测,未来Snowflake外部表将可以直接引用戴尔智能湖仓中的数据。

戴尔还发布了上面这张演示文稿,看起来是相当复杂。该解决方案的具体信息参见下表:

很明显,这不是那种能拿来即用的系统。在跟戴尔签订协议之前,客户还认真研究自己到底要使用哪些组件和选型。
有趣的是,HPE也推出了颇为相似的产品Ezmeral Unified Analytics,其中同样使用到Databrick的Delta Lake技术、Apache Spark和Kubernetes。HPE本周将举办Discover活动,预计届时将发布更多消息。从这个角度看,戴尔好像是故意要抢先一步。
好文章,需要你的鼓励
在技术快速发展的时代,保护关键系统越来越依赖AI、自动化和行为分析。数据显示,2024年95%的数据泄露源于人为错误,64%的网络事件由员工失误造成。虽然先进的网络防御技术不断发展,但人类判断仍是最薄弱环节。网络韧性不仅是技术挑战,更是人员和战略需求。建立真正的韧性需要机器精确性与人类判断力的结合,将信任视为战略基础设施的关键要素,并将网络韧性提升为国家安全的核心组成部分。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。
自计算机诞生以来,人们就担心机器会背叛创造者。近期AI事件包括数据泄露、自主破坏行为和系统追求错误目标,暴露了当前安全控制的弱点。然而这种结果并非不可避免。AI由人类构建,用我们的数据训练,在我们设计的硬件上运行。人类主导权仍是决定因素,责任仍在我们。
360 AI Research团队发布的FG-CLIP 2是一个突破性的双语精细视觉语言对齐模型,能够同时处理中英文并进行精细的图像理解。该模型通过两阶段训练策略和多目标联合优化,在29个数据集的8类任务中均达到最先进性能,特别创新了文本内模态对比损失机制。团队还构建了首个中文多模态评测基准,填补了该领域空白,为智能商务、安防监控、医疗影像等应用开辟新可能。