步入数据时代,数据量爆发性增长、数据类型日趋复杂不仅带来存储和管理方面的问题,更让传统存储系统的性能大打折扣。这要求存储厂商提供一种更新、更快、更适合用户现阶段需求的存储系统。数据服务供应商曙光公司祭出了“软件定义存储”的应对策略,不仅解决数据存储和复杂处理方面的难题,更通过将存储与大数据在三个层次上实现“统一架构为基础的超融合”,为进一步挖掘数据背后的价值打下基础。
层次一:硬件资源融合
软件定义,靠的是硬件上的可靠支撑。曙光公司存储产品事业部总经理惠润海介绍说,第一个层次上的融合硬件资源的融合——即存储与计算、网络资源的融合,硬件资源融合可大幅度降低运营的建设成本。
据统计,大数据技术年复合增长率超过惊人的40%。反映在在高端服务器市场,带来的是大数据应用的骤增、企业级客户对存储容量的需求从TB级升至PB级。在此格局之下,企业级客户首要的要求便是降低单位容量成本。为迎合这一技术发展的趋势,曙光推出S650-G20高密度存储服务器产品,回应用户对海量存储的需求。
5U88盘位的S650-G20存储服务器集高密度与高可靠性于一身,最大可以扩展到1PB的存储容量。这款可直接安装在标准机柜里的产品,采用了Haswell处理器架构和DDR4内存技术,使得它不仅可用于企业用户管理、存储大量非结构化数据、满足用户业务对存储容量的扩展需求,还将显著提升应用程序的性能。
1PB的存储容量大概相当于25万部高清的电影,因此S650-G20存储服务器完全可以胜任爱奇艺、土豆网这样的视频服务提供商的使用环境。当然,计算存储平衡的S650-G20可面向任何PB级需求的业务,如导航服务、云盘、视频监控、IPTV等。
此外,曙光的整机柜产品(66TB存储容量)也是曙光硬件资源融合产品的代表作,整机柜架构还可大幅度节省部署时间。
层次二:数据平台的融合
数据平台的融合是软件定义存储的核心,软件性能的提升有赖于数据平台的资源整合。惠润海提出,数据平台的融合应分为两个方面:数据存储平台自身的融合和数据存储平台和数据处理平台深层次的融合。这两个有点像绕口令的融合,其在数据平台中的价值体现中大有乾坤。
数据存储平台本身的融合,顾名思义,即为存储平台对各种类型数据的“大一统”。曙光分布式的云存储系统,可以融合多种存储接口,如文件接口、块接口、对象接口、大数据AP接口等,各种类型的数据都可以兼容。这种普适性对于复杂数据的处理而言非常重要。
ParaStor是曙光分布式存储的核心,发展至今已历经15年、升级至第5代产品。此分布式云存储系统面向云环境进行优化,定位于中大规模存储应用。目前服务超过1100家用户,累计销售可用容量260+PB。
数据存储平台和数据处理平台的深层次融合,面向的是日渐复杂的数据处理场景应用。复杂数据的处理要求存储平台和数据平台的多样化,一个统一融合的数据平台显得非常重要。
曙光经营12年之久、升级了4代的XData大数据一体机系列产品就是存储平台和处理平台深层次融合的典范。目前曙光XData大数据一体机产品高峰时段写入速度可达每秒钟百万条,查询速度仅以秒计,已成为客户海量网络流数据处理平台的中坚。一个生动的例子是,用户一年的数据可能达到几万亿条,要在这几万亿条里面找到一条指定的微信消息,几秒内甚至一秒钟就能找到。
层次三:应用系统的融合
应用系统的融合是“超融合”形态初具的关键。早在2014年10月,曙光公司就在业内率先推出将云计算、大数据、HPC三类应用融合到一起的“超融合”计算架构解决方案,致力于打破“数据孤岛”、挖掘数据价值。
如今,曙光从解决复杂数据存储与数据处理的角度,进一步丰富了“超融合”的概念。曙光“超融合”的布局今天可以表述为:以数据的统一存储和共享为基础,实现统一资源管理融合(计算、存储、网络)、实现统一数据管理融合(调度、共享、处理)、实现统一应用管理的融合(HPC、云计算、大数据)。这给用户带来的是极大地简化数据中心的建设和运营模式,节省大量成本。
预计到2020年,中国的数据量将占据全球的18%,在全球的位置越来越重要,这对中国的IT服务厂商而言意味着更大的机遇,软件定义的存储从中发挥出的作用也将会更大。当存储将不再只是一个存储系统、而是需要考量与存储相关的生态系统及其上下游产业链的呼应之时,定位于“IT综合服务提供商”的曙光真正迎来了时代的机遇。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。