日前,IDC正式公布2018年上半年《中国企业级存储系统市场调查数据报告》。数据显示,2018年上半年中国市场存储出货量为67,358套。浪潮存储出货量8,414套,居中国企业级存储(不含监控)市场第一;浪潮出货量增速106%,5倍于业界平均增速,居中国第一。
整体来看,2018年上半年,中国企业级存储市场出货量达到67,358套,总容量为7430.5 PB。政府增加了IT投资,金融、教育和卫生也显示出良好的增长势头,并将在2018年继续保持增长趋势。
存储需求变化 构建新数据时代
IDC认为,支持数据经济发展的新技术不断涌现,掌握并应用最新技术就是打开数字经济未来的关键。
这个由云计算、大数据、人工智能、区块链、物联网等新技术驱动,移动互联、人脸识别、自动驾驶等新智能应用不断涌现的时代,浪潮将其定义为智慧驱动的新数据时代。相比过去以数据库、文件、流媒体为主的存储应用,新数据时代,存储要面对云、大数据、人工智能等新技术产生的数据需求。
新数据时代,数据有三大需求变化。一是PB成为通常的测量单位,一些行业甚至开始出现EB、ZB级存储需求。IDC数据显示,2018年上半年出货67,358套,单套存储达到PB级出货容量的有数百例;存储集群容量达到EB级。浪潮目前已出货的存储集群裸容量72PB,在业界领先。二是存储性能要求更高,某些核心应用已经要求百万级的IOPS、TB级带宽;前不久进行的浪潮软件定义存储AS13000模拟真实业务环境的测试震撼了业界,整个集群288节点,其中元数据集群128节点,系统实测性能达到380万IOPS、324GB/s聚合带宽。三是对数据的智能管理和流动提出高要求,需要对几百个乃至更多的数据存储节点提供一体化管理运维并保障数据流动。
软件定义存储市场 是未来产业方向
现在数据中心在快速演进,大部分的数据中心都会遵循某个模式来发展。像一些互联网的数据中心,或者一些高性能计算的数据中心,会做得比较激进。这些数据中心主要是新建的,没有一些固有的历史包袱,可以面向未来去更多的采用一些新架构和新技术。IDC认为,软件定义的基础设施将深刻影响未来产业的发展。
基于Scale-out架构的浪潮软件定义存储系列,可融合多类型数据,在“All in One”架构下可支持文件、块、对象和大数据四种数据服务。浪潮成功部署实施了大量PB级大工程,在中国移动分布式存储集采中获得30%份额,预计容量会超过50PB;在某卫星项目实现中国最大规模的软件定义存储部署,达到单系统239个节点、72PB容量;在广电总局,AS13000持续部署超过10PB容量。
SAN存储 稳健增长
IDC预计,未来5年,存储市场将继续显示稳健增长(CAGR增长为9.8%),总容量可能达到约90 EB。政府、金融、电信仍是主要投资者,教育和医疗也将显示出巨大潜力。
对于关键业务来说,用户广泛采用基于FC协议的SAN存储,SAN存储已经在帮助用户解决关键业务的数据管理方面发挥了巨大作用。IDC数据显示,2018年上半年FC存储出货量24,467套。同时,企业级存储市场,混闪存储在2018年上半年的市场份额为33.5%,仍占主导。
在基于FC协议的SAN存储领域,浪潮存储2018上半年出货量2,293套,主要包括智能存储G2系列和智能全闪G2-F系列,承载关键业务数据。目前,浪潮存储已在广东省高级人民检察院项目、25PB华中科大脑科学研究项目、重庆国土项目、邮储银行项目部署,金额都达到千万级,实现金融、能源、政府、教育等行业的规模推广。
好文章,需要你的鼓励
VMware宣布将终止现有渠道合作伙伴计划,新计划采用邀请制,大幅减少授权合作伙伴数量。未受邀合作伙伴将于2025年7月15日收到不续约通知,可继续交易至10月31日。白标计划也将同时终止。此举是18个月内VMware第二次重大合作伙伴调整,旨在专注与少数核心云服务提供商深度合作。客户可能面临续约困难、服务质量下降和成本上升等影响。
StepFun公司推出的Step1X-Edit是首个能够媲美GPT-4o和Gemini2 Flash等商业模型的开源图像编辑AI。该模型通过整合多模态语言理解和扩散图像生成技术,能够处理11种编辑任务,在新构建的GEdit-Bench基准测试中表现优异,为图像编辑技术的民主化开辟了新道路。
谷歌DeepMind和伦敦大学学院研究发现,大语言模型在面对反驳时会迅速失去信心并改变答案,即使反驳是错误的。研究显示LLM既会对自己的答案过度自信,又对批评异常敏感,表现出与人类相似但又独特的认知偏差。这种行为对多轮对话AI系统构成威胁,最新信息可能对LLM推理产生不成比例的影响。
BluOrion公司开发的ZClip是一种智能梯度裁剪算法,解决了大型语言模型训练中的梯度爆炸和损失飙升问题。通过Z分数统计检测和动态调整策略,ZClip能够自适应地控制梯度幅度,相比传统固定阈值方法提升训练效率35%以上,同时显著降低训练失败风险,为大模型训练提供了更稳定、高效的解决方案。