日前,IDC正式公布2018年上半年《中国企业级存储系统市场调查数据报告》。数据显示,2018年上半年中国市场存储出货量为67,358套。浪潮存储出货量8,414套,居中国企业级存储(不含监控)市场第一;浪潮出货量增速106%,5倍于业界平均增速,居中国第一。
整体来看,2018年上半年,中国企业级存储市场出货量达到67,358套,总容量为7430.5 PB。政府增加了IT投资,金融、教育和卫生也显示出良好的增长势头,并将在2018年继续保持增长趋势。
存储需求变化 构建新数据时代
IDC认为,支持数据经济发展的新技术不断涌现,掌握并应用最新技术就是打开数字经济未来的关键。
这个由云计算、大数据、人工智能、区块链、物联网等新技术驱动,移动互联、人脸识别、自动驾驶等新智能应用不断涌现的时代,浪潮将其定义为智慧驱动的新数据时代。相比过去以数据库、文件、流媒体为主的存储应用,新数据时代,存储要面对云、大数据、人工智能等新技术产生的数据需求。
新数据时代,数据有三大需求变化。一是PB成为通常的测量单位,一些行业甚至开始出现EB、ZB级存储需求。IDC数据显示,2018年上半年出货67,358套,单套存储达到PB级出货容量的有数百例;存储集群容量达到EB级。浪潮目前已出货的存储集群裸容量72PB,在业界领先。二是存储性能要求更高,某些核心应用已经要求百万级的IOPS、TB级带宽;前不久进行的浪潮软件定义存储AS13000模拟真实业务环境的测试震撼了业界,整个集群288节点,其中元数据集群128节点,系统实测性能达到380万IOPS、324GB/s聚合带宽。三是对数据的智能管理和流动提出高要求,需要对几百个乃至更多的数据存储节点提供一体化管理运维并保障数据流动。
软件定义存储市场 是未来产业方向
现在数据中心在快速演进,大部分的数据中心都会遵循某个模式来发展。像一些互联网的数据中心,或者一些高性能计算的数据中心,会做得比较激进。这些数据中心主要是新建的,没有一些固有的历史包袱,可以面向未来去更多的采用一些新架构和新技术。IDC认为,软件定义的基础设施将深刻影响未来产业的发展。
基于Scale-out架构的浪潮软件定义存储系列,可融合多类型数据,在“All in One”架构下可支持文件、块、对象和大数据四种数据服务。浪潮成功部署实施了大量PB级大工程,在中国移动分布式存储集采中获得30%份额,预计容量会超过50PB;在某卫星项目实现中国最大规模的软件定义存储部署,达到单系统239个节点、72PB容量;在广电总局,AS13000持续部署超过10PB容量。
SAN存储 稳健增长
IDC预计,未来5年,存储市场将继续显示稳健增长(CAGR增长为9.8%),总容量可能达到约90 EB。政府、金融、电信仍是主要投资者,教育和医疗也将显示出巨大潜力。
对于关键业务来说,用户广泛采用基于FC协议的SAN存储,SAN存储已经在帮助用户解决关键业务的数据管理方面发挥了巨大作用。IDC数据显示,2018年上半年FC存储出货量24,467套。同时,企业级存储市场,混闪存储在2018年上半年的市场份额为33.5%,仍占主导。
在基于FC协议的SAN存储领域,浪潮存储2018上半年出货量2,293套,主要包括智能存储G2系列和智能全闪G2-F系列,承载关键业务数据。目前,浪潮存储已在广东省高级人民检察院项目、25PB华中科大脑科学研究项目、重庆国土项目、邮储银行项目部署,金额都达到千万级,实现金融、能源、政府、教育等行业的规模推广。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。