企业纷纷启动数字化转型,"数据智能化"已经成为企业的常态需求。这一趋势下,浪潮推出了智能存储G2平台,从介质层、设备层、协议层和应用层进行了大量技术创新,实现了智能的感知、智能的技术架构、智能的适配调度,助力企业构建智能IT基础设施。

浪潮智能存储G2平台
浪潮G2在存储虚拟化上的"三板斧"
在数据出现爆炸式增长、数据中心存储环境越来越复杂的今天,存储虚拟化功能可以帮助企业实现异构环境的整合,消除不用类型存储资源之间的差异,并能够减轻IT管理者的管理成本。浪潮G2的存储虚拟化技术并不是简单停留在建立统一虚拟化资源池上,而是具备了独具优势的"三板斧":
第一板斧:逻辑上统一管理,物理上自由布局
浪潮智能存储G2平台的虚拟化技术可将数据存放的物理位置与逻辑管理权限分离,带来的好处显而易见。"浪潮存储产品部产品经理杨涛表示:"存储设备可保持原来在机房的布局不变,安装在配电、通风、机架空间等因素比较合适的地方,甚至根据业务需求可以跨房间、跨楼层部署;但在管理方面,管理员只需要对着一个管理平台,所有存储设备尽在眼前,管理效果事半功倍。"

浪潮中端智能存储AS5000G2系列
现在很多企业都经历了信息化建设初期,或多或少积累了一些存储的"家底"。这些老存储设备大多服役多年,性能上跟不上新存储设备,高级功能也比较少。久而久之,这些老存储成了企业信息化的鸡肋:继续用,性能跟不上、容易出状况;直接舍弃换新,IT成本太高。
所以,通过存储虚拟化功能实现对老存储的整合、充分发挥老存储的性能,对于降低企业的信息化成本至关重要。浪潮智能存储G2在全系列产品中都提供了存储虚拟化功能,实际运行中可整合95%以上的异构SAN存储设备,这一点毫无疑问领先业界同档次产品。

存储虚拟化可接管不同厂商的存储设备
"互联网+"的趋势下,企业的应用数量和数据容量大幅增长,扩容势在必行。由于许多应用程序逻辑上都是相互关联的,所以一旦需要扩容或升级,通常多个应用或数据库很可能不得不同时中断服务。对于企业级数据平台或是公有或私有云服务提供商来说,服务中断可能带来巨大的经济以及品牌损失。
"数据在线、业务连续是一个经久不衰的话题",杨涛表示。"无论是在公有云、私有云还是混合云,无论是在过去、现在还是未来,存储服务不中断都仍然是最重要、最基础的企业级IT服务,这个服务不容有失,不容有错,否则一定会造成大范围的严重后果。"
存储服务中断很大一部分原因在于存储升级:要进行存储升级,就需要将数据从原来的存储迁移到新的存储,这个过程中往往需要中断数据服务。为了避免存储升级带来的存储服务中断,浪潮智能存储G2平台可通过虚拟化技术,对不同存储设备中的企业数据提供统一的透明数据迁移服务。
由于浪潮智能存储G2平台位于在服务器和其他厂商的存储设备之间,应用程序的读写都经过G2。所以,当未来购置新阵列时,可连到G2并利用G2的虚拟化技术实现数据在线迁移。最终,可将老旧设备的数据迁移到新的存储设备,待两台设备的数据100%同步后,应用即可平滑切换到新设备上,这整个过程对业务是零感知的、无损的。
存储虚拟化技术只是浪潮智能存储G2平台的众多高级功能之一,整体来看。G2由一套涉及感知、架构、管理的智能体系,包括硬件、软件、算法以及多服务模型的高效协同。G2平台集成了超过1000个软硬件传感器,具备100多个持续优化的核心算法,提供了智能管理、资源调度等十几个服务模型,提供了满足数字化转型需要的智能存储。
从2015年发布AS18000,到2016年的全固态存储HF5000和整机柜软件定义存储AS13000-Rack,再到2017年最新发布的新一代智能存储G2平台,浪潮构建了涵盖统一存储、全固态存储和软件定义存储的存储高端技术和产品布局,实现了存储产品线的完整化和结构化。
浪潮存储在高端技术上的不断创新、产品布局上的不断完善,推动浪潮智慧计算战略在数据存储领域不断创新和突破。浪潮存储,和浪潮的服务器、网络、云产品、大数据等协同发力。在未来整个IT产业里浪潮会提供更为丰富的、端到端的IT基础架构整体方案。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。