IBM公司着手发布Ceph产品更新,提供对象锁定功能以抵御勒索软件侵袭,同时带来NVMe-oF及NFS对象摄取的预览版本。
IBM Storage Ceph也就是IBM目前宣传的Red Hat Ceph,属于IBM在收购Red Hat时继承而来的大规模、可扩展、开源对象/文件/块存储软件。Ceph中的对象存储部分名为RADOS(可靠自治分布式对象存储)。Ceph对象网关也被称为RADOS网关(RGW),是构建在librados库之上的对象存储接口,负责为应用程序提供指向Ceph存储集群的RESTful网关。
前Red Hat产品经理、现供职于IBM的Marcel Hergaarden在LinkedIn上的帖子中表示,Storage Ceph v7.0现已全面上市。其中包括Cohasset对象锁定功能认证,意味着对象存储符合美国证券交易委员会(SEC)及金融行业监管局不可擦除和不可重写(FINRA WORM)要求,且满足美国商品期货委员会(CFTC)规章1.31(c)-(d)的要求。
Ceph文件系统支持NFS,也就是说客户现在可以在配置Ceph文件系统之后,在Ceph仪表板之内创建、编辑和删除NFS导出。Hergaarden表示,“可以使用NFS Ganesha服务通过NFS协议导出CephFS命名空间。Storage Ceph Linux客户端可以原生挂载CephFS,这是因为CephFS的驱动程序默认集成在Linux内核当中。借助这一新功能,非Linux客户端现在也可以通过NFS Ganesha服务通过NFS 4.1协议访问CephFS。”
RGW(RADOS网关)现在可以从仪表板以多站点模式进行设置和配置。仪表板支持对象桶级交互,提供多站点同步状态详细信息,可用于CephFS分卷的管理和监控。
他还提到,Storage Ceph通过将S3select查询推送至RADOS网关(RGW),从而为Presto和Trino应用程序带来了性能改进。v7.0还支持CSV、JSON和Parquet定义的S3select等数据格式。
此外,基于RGW策略的数据归档与公有云迁移也在受支持范畴。用户可以:“出于成本和可管理性的考量,创建策略并将符合策略标准的数据移动至与AWS相兼容的S3存储桶进行归档。”其目标可以是AWS S3或Azure Blob存储桶。RGW通过对象存储地理复制可实现更好的多站点性能。“数据复制与元数据操作性能得以提高”,再加上“通过优化和增加RadosGW守护进程数量来提高操作并行性,从而提高横向可扩展能力”,但IBM并未公布具体性能数据。
再有,通过使用C2+2纠删码池,纠删码的最小节点数已降至4个。
Ceph v7.0还迎来三项预览版新功能,目前仅作为展示,不建议在生产应用中直接使用:
首先是基于块存储的NVMe for Fabrics(NVMe-oF)。客户端与NVMe-oF启动器交互,并接入至IBM Storage Ceph NVMe-oF网关,此网关从北端启动器处接收数据并连接至南端RADOS,且性能与RBD(RADOS Block Device)使用原生块存储持平。
对象归档区,用于保存每个对象的各个版本,负责为用户提供包含对象完整历史记录的对象目录。此功能交付的是无法从RADOS网关(RGW)端点删除或修的不可变对象,并支持恢复生产站点上存在的任意对象的各个版本。这项功能主要用于抵御勒索软件和实现灾难恢复。
为了限制进入归档的内容,还可对归档区存储桶进行粒度设置,从而立足每个对象存储桶启用/禁用指向归档区的复制操作。
第三项预览功能是NFS到RADOS网关的后端,允许通过NFS将数据摄取至Ceph对象存储当中。Hergaarden总结称,“这项功能主要用于从本身不支持S3对象API的遗留应用程序中轻松提取对象数据。”
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。