存储圈真是个神奇的领域,各种新鲜名词层次不穷,前有块存储、文件存储,后有混合存储、统一存储,如今对象存储又大火,各个行业也顺应趋势纷纷换成对象存储。那么,到底如何理解对象存储?哪些领域迫切使用对象存储技术呢?

事实上,对象存储的发展主要源于需要长期存储大量非结构化数据的高性能与弹性。最开始是由亚马逊在2006年推出的S3(Simple Storage Service),此后,业内各大厂商纷纷开始涉足此市场,推出各种产品,形态各异。
回顾20年,存储领域有块(传统存储)和NAS设备,最早还用磁盘来存储数据,不过各种存储技术在容量及可扩展性上都没有达到最理想的状态。
对象存储通过提供远程在线访问数据填补了市场空白,经过多年的发展,如今已经发展成为一种成熟的技术,是使用基于Web的协议来存储和检索数据。从本质上讲,大多数提供四个基元,即创建,读取,更新,删除。在很多情况下,Update只是一个Delete和Create操作,这意味着与对象存储进行交互相对简单,使用嵌入数据和关联元数据的HTTP发生基于REST的API调用。
不过这种简单的操作也突出了对象存储的一个问题:应有程序需要重写以使用对象存储API,不少供应商也确实提供了SDK来帮助完成这一过程,但需要更改应用程序。
其实对于对象存储的定义目前也没有太明确的说法,如果非要用一句话来概括的,可以理解为对象存储是支持海量用户远程访问的无限容量的存储系统。也正是因为对象存储独有的优势吸粉无数。其主要优势如下:
• 可扩展性:一直以来,可扩展性都是存储供应商吸引用户的关键点之一。起初许多对象存储解决方案的起始容量仅为百TB,这对于用户来说不太实用,不过随着技术的不断发展,现在供应商已经提高了可扩展性。
物联网、人工智能的持续火热,逐渐成为数据的主要创建者,并且分布广泛。目前市场上供应商提供的解决方案都是纯软件的,可以部署在专用硬件上,也可以作为内部部署或公有云中的虚拟实例部署。
• 软件定义:提供纯软件解决方案意味着企业可以为他们的环境选择合适的硬件。在硬件供应条约已经存在的情况下,企业可以简单的支付对象存储软件并部署在现有设备上。
• 试用版:前面已经提到,对象存储均是以软件形式部署,因此,几乎所有供应商都通过下载软件或使用公司的实验室环境提供某种试用流程及试用版本软件,以便于长期评估及采用。
众供应商纷纷涉足
强劲的市场需求自然吸引各大厂商争夺。在对象存储领域,亚马逊在前文也提到,起到了良好的推动作用,而且如今大部分在线存储服务商都在参考亚马逊的做法。其对象存储服务(Simple Storage Service, S3)主要提供一个易于使用的Web界面来对存储的数据进行查看、存储和检索。它用实际行动证明了对象存储技术是针对大型项目给出的一种极具可扩展能力的回应。
在对象存储业务上,IBM主要提供云端服务。云对象存储(COS)可以与云端集成,利用灵活的混合试工,让某款产品运行于用户本地或由Bluemix构成的私有云中。这种混合方式为客户提供了一个私有的内部部署选项,但却可以利用云端的资源。
华为在今年的华为中国区生态伙伴大会上发布了其基于DFV数据功能虚拟化平台的新一代对象存储服务0BS 3.0,拥有10万+节点的扩展能力,单桶千亿对象统一命名空间,轻松应对EB级容量需求,并且极致的性能与可靠性。
结语
近几年对象存储的发展是更注重易用性和安装。多协议连接更多的应用程序使数据更方便、更快捷的使用对象存储。相信在未来几年内,对象存储仍然是数据存储的重要平台之一。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。