戴尔科技新近发布的ObjectScale XF960,是一款面向生成式AI与实时分析用例的全闪存横向扩展设备。
ObjectScale是戴尔科技旗下的软件定义对象存储系统,目前以交钥匙硬件设备的形式提供,但可扩展性相对有限。XF960为ObjectScale X系列产品线的首位成员,以运行ObjectScale v1.3软件的PowerEdge服务器为基础。系统中具体包含服务器、网络交换机、机架安装设备以及配套的电源线。
根据XF960规格表的内容,每个节点将在2RU机箱内配置双英特尔至强CPU,可支持最高737.3 TB的原始存储容量。集群最少可容纳4个节点,配备5节点即可实现高可用性,最多则可容纳16个节点,原始存储容量上限达11796 TB(约合11.8 PB)。下面来看更多规格细节:
ObjectScale软件是一套分布式、采用微服务架构、多节点、横向扩展且多租户式的对象存储系统,可通过单一全局命名空间支持S3 API。它与戴尔的ECS软件采用相同的代码库。支持范围从3节点到超过1000节点,且不存在特定的架构限制。XF960的横向扩展上限由硬件决定,ObjectScale软件本身不作限制。
ObjectScale还运行在VMware vSAN节点之上,能够支持VMware VCloud Foundation (VCF)、Tanzu和Red Hat Open Shift。其复制对象现在可以达到50 TiB,最多支持拆分成5万个部分。v1.3支持使用S3协议进行分段上传(MPU)。MPU能够利用众多较小部分构建起大型对象,且随时能以任意顺序进行上传。
v1.3还允许在不经版本控制的前提下,在存储桶级别实现对象锁定。在不经版本控制的情况下启用时,对象锁定功能将只适用于存储桶级别,而不再是存储桶内的各个版本。这样的设计有效防止了覆盖与删除等误操作。戴尔在ObjectScale v1.3博文(https://infohub.delltechnologies.com/p/introducing-the-latest-release-of-dell-objectscale-unleash-the-power-of-object-storage/)中做出了详细说明。
戴尔在关于XF960的博文中提到,这将是一套完全集成的交钥匙系统,并将是“世界上最强大的、基于Kubernetes定制的对象存储设备。”相应的计划用例,就是在边缘位置由软件定义ObjectScale系统将数据发送至数据中心内的XF960设备。
根据目前已知的消息,客户可以将基于Trino的数据湖产品Starburst同ObjectScale结合使用,“为在本地和跨多云环境中建立高性能、无限可扩展的智能湖仓(Lakehouse)奠定基础。”但需要注意的是,XF960硬件本身不能无限扩展,其最多只可容纳16个节点。
总之这就是一套戴尔打造的对象存储节点,可提供最高4.3 GBps的读取速度和最高3.3 GBps的写入速度。在与ObjectScale结合后就成为一套对象存储系统,用于将T1层S3主数据存储直接交付至AI/机器学习及分析流程。
对象存储供应商Cloudian提供的6节点全闪存集群,能够提供17.7 GBps的写入速度和25 GBps的读取速度。按照单节点计算相当于2.95 GBps写入速度和4.2 GBps读取速度,性能不及XF960。
MinIO文件系统已经将对象存储提升为主存储层,但目前我们还找不到能与戴尔和Cloudian产品直接进行读写吞吐量比较的等效存储节点。
感兴趣的朋友可以参考戴尔专门发布的博文(https://www.dell.com/en-us/blog/unleash-the-power-of-object-storage/),其中论述了关于XF960的更多细节。
好文章,需要你的鼓励
三星与AI搜索引擎Perplexity合作,将其应用引入智能电视。2025年三星电视用户可立即使用,2024和2023年款设备将通过系统更新获得支持。用户可通过打字或语音提问,Perplexity还为用户提供12个月免费Pro订阅。尽管面临版权争议,这一合作仍引发关注。
浙江大学团队提出动态专家搜索方法,让AI能根据不同问题灵活调整内部专家配置。该方法在数学、编程等任务上显著提升推理准确率,且不增加计算成本。研究发现不同类型问题偏爱不同专家配置,为AI推理优化开辟新路径。
苹果M5 MacBook Pro评测显示这是一次相对较小的升级。最大变化是M5芯片,CPU性能比M4提升约9%,多核性能比M4 MacBook Air快19%,GPU性能提升37%。功耗可能有所增加但电池续航保持24小时。评测者认为该产品不适合M4用户升级,但对使用older型号用户仍是强有力选择。
清华大学研究团队提出SIRI方法,通过"压缩-扩张"交替训练策略,成功解决了大型推理模型"话多且准确率低"的问题。实验显示,该方法在数学竞赛题上将模型准确率提升43.2%的同时,输出长度减少46.9%,真正实现了效率与性能的双重优化,为AI模型训练提供了新思路。