Sardina 希望通过价格优势,将仍在使用 SUSE Enterprise Storage (SES) 的用户吸引到 FishOS 平台上——无论存储容量多大,每个核心的许可费仅为 1 欧元。
Sardina Systems 自 2014 年起推出其 FishOS 云管理平台,该平台整合了 Openstack、Ceph 和 Kubernetes。此次推出特殊的 1 欧元优惠正是针对 SUSE 正在逐步退出 Ceph 存储市场这一趋势。
2020 年,SUSE 收购了 Kubernetes 领域的知名公司 Rancher Labs,不久后在 2021 年初,SUSE 决定取消其基于 Ceph 的 SUSE Enterprise Storage 产品。SUSE 退出 Ceph 存储领域的步伐仍在继续:Sardina 指出了一封近期在 Ceph 用户邮件列表中出现的邮件,该邮件中不仅提到了 openSUSE 中 Ceph 客户端维护者退任的消息,还对 SLE 客户发布了如下公告:
9.3 ceph client 包已被废弃,并将在 15 SP7 中移除
Ceph 是一款开源存储工具,正如 Register 的姊妹网站 Blocks & Files 经常报道的那样。最直观的理解是,可以将 Ceph 看作是 RAID 在广域集群中的延伸:RAID 能够将一台机器上的多个硬盘组合成一个更大的虚拟硬盘,而 Ceph 则通过将多台存储服务器集成为一个存储池,为您的网络提供存储支持。Ceph 的一大优势在于,这些服务器并不需要集中放置在同一地点——它们可以分布在一个国家、一个大陆,甚至全世界各地。
SUSE 曾尝试推出一款名为 Aquarium 的基于 Ceph 的更简化替代存储工具,但该方案未能获得市场青睐,其 Github 仓库也已于 2023 年归档。目前,SUSE 的存储产品仅面向 Kubernetes 用户。
SUSE 发言人在一份声明中告诉 The Register: “SUSE Storage 是 SUSE 目前推出的存储产品,基于 Longhorn 项目,代表了一种面向未来、容器原生的进化方向。它取代了已结束生命周期的 SUSE Enterprise Storage——后者是一种更传统、范围更广的软件定义存储解决方案。SUSE 正与所有客户共同努力,为其当前和未来的软件定义存储需求寻找最佳解决方案。”
当然,还有其他几家公司也乐意为您提供类似的存储产品——但价格却远不便宜。这毕竟是企业级产品,其官网通常不会公开标价。如果您是规模足够大的客户需要此类产品,价格谈判往往会从“您心中预期的金额是多少?”等问题开始。
Red Hat 更侧重于竞争对手 Gluster 存储技术,其费用大约为每节点每年 4,500 美元。Red Hat 也提供 Ceph 产品,但对于 12 个节点来说,年费用大约在 32,000 美元左右。
相比之下,每节点 1 欧元的价格显得十分划算。FishOS 看起来完全能满足需求;我们也发现了一些正面的评价。Sardina 的公告中提到了一个涉及德国云服务供应商 Grass-Merkur 的案例研究,OpenInfra Foundation 也对此给予了积极报道。Sardina 过去曾在平台停运之际提供迁移支持,例如,当以色列初创公司 Stratoscale 数年后关闭业务时,Sardina 就主动协助客户迁移至 FishOS。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。