【中国,广州,2015年7月31日】全球领先的信息与通信解决方案供应商华为,于7月28日在美丽的羊城广州发布新一代高端存储OceanStor 18000 V3,广州作为OceanStor 18000 V3发布重要一站,超过160名来自广东大企业、政府、金融、公安、广电、交通、媒资、电力、教育、医疗等行业的客户、专家及合作伙伴莅临现场。在云计算、大数据、移动化、社交化时代,数据正成为企业的核心,而企业关键业务对存储设备的可靠性、性能、服务化定制等方面提出更高的要求,华为新一代高端存储OceanStor 18000 V3提供企业级的稳定性、高性能以及对未来云平滑演进的能力,满足企业关键业务需求。

图1:华为与客户及合作伙伴共同见证了华为新一代高端存储在广东隆重发布
华为广东代表处企业业务部长陈斌出席此次存储新品发布会,在开场致辞中表示:“广东是华为公司企业业务最重要的粮仓基地,在客户合作伙伴鼎力支持下,通过努力耕耘近4年年均收入复合增长率超过40%,2015年上半年收入同比增长更是高达50%,华为存储凭借高可靠、高稳定性得到了广东公安、广东省信息中心、广东黄埔海关、深圳市前海管理局、广汽集团、华大基因、深圳超算中心等大批政府企业客户的高度认可。 ”
深圳市前海管理局作为华为高端存储的使用用户,前海管理局的郑承毅先生在发布会上表示:“自4月份宣布为自贸区截止今天,我们的驻资企业已经达到4万家,我们企业的业务对存储的需求很大,要求也很高。之前使用华为OceanStor 18000高端存储体验很好,华为的高端存储在性能超过我们要求,华为的高端存储在空间、使用率以及能耗方面有很好的体验,也希望华为继续推出更新的产品”。
两大型号 性能领跑业界
此次发布的OceanStor 18000 V3系列高端存储共有OceanStor 18500 V3和OceanStor 18800 V3两个型号,新型号基于更高的产品规格、创新融合闪存技术、自动识别存储介质配置优化算法,具备极致的性能,相比上一代产品提供两倍的计算能力,最大可实现300万IOPS和低于1ms访问延迟,业务响应速度提升10倍,大大提高关键业务服务质量和效率。
图3:华为统一存储产品线总裁孟广斌在做《华为高端存储OceanStor 18000 V3 》新品介绍
华为统一存储产品线总裁 孟广斌先生表示:“华为公司的存储是华为公司大数据战略中的重要一环,华为已经在存储方面的研发持续投入已经超过20亿,未来华为会坚定不移的持续投入下去。华为存储最关键的一点是只用一套存储操作系统OceanStor OS 来支持企业存储、云存储和大数据存储三个方面的所有产品和解决方案创新。”
极致稳定 面向未来
容忍双点故障的系统架构、提升硬盘重构时间95%的创新算法,以及无网关双活业务连续性解决方案保证了核心业务的极致稳定;基于面向云的OceanStor OS,池化底层物理存储资源,按照业务变化动态分配,便于数据共享,资源利用。凭借极致稳定、极致性能、面向未来的能力,OceanStor 18000 V3系列产品树立了企业高端存储新标杆。
作为OceanStor全系列中的旗舰产品,华为OceanStor 18000 V3高端存储系统面向企业高端存储市场,具备全球领先的极致稳定、极致性能和面向未来的融合能力。华为存储将倾听客户需求,携手合作伙伴提供开放、有竞争力的产品和解决方案,助力企业核心业务运行与发展,将为中国制造2025的广东版本落地提供强劲的动力。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。