IDC报告指出,预计2023年,企业、机器、工业、消费、科学等领域每年产生的数据量将高达103 ZB。而视频应用和物联网应用是主要的数据来源,那么今天基于传统的数据中心存储架构是否能满足未来海量数据存储的需求?答案是不能。
当前数据中心存储架构主要特点包括,面向有限数据规模的普通架构,主要存储结构化数据、采用RAID等传统存储处理方式。而海量数据时代,面临的是海量无限的非结构化数据的对象存储,其采用纠删码等更为经济高效的数据备份策略。
因此如果用普通存储架构来处理海量的非结构化对象存储,面对工作负载的多样性、应用的多元性和海量数据集时,通用性存储必须分配未使用的容量和/或 DRAM 来管理所有工作负载,这就造成了不仅本身存储架构效率低下,同时其整个IT数据中心的成本开销也是巨大。IDC基础架构系统、平台与技术集团副总裁Ashish Nadkarni在与至顶网等媒体沟通时谈到:“预计到2022年,HDD和SSD的总金额将达到IT基础架构总支出的27%,对于云和超大规模数据中心客户来说,通过优化存储基础架构来实现更大规模经济效益的机会到来。”
传统数据中心的存储架构已经成为瓶颈,对于存储架构的重构势在必行。
那么针对视频、物联网/边缘数据、监控,以及大型人工智能/机器学习数据集的数据存储,全新的数据中心存储架构应该如何建立?我们如何解决呢?
今天整个IT环境正在从“集群化”向“编程化”演进,那么存储架构是否是这样的趋势?构建一个可编程的去集群化基础架构是否是解决海量数据的有效手段之一?
答案是肯定的,由于越来越多的数据具有顺序写入的特性,比如视频、物联网/边缘数据、监控,以及AI/机器学习产生的海量数据,如果通过编程来实现海量数据的分区存储,对工作负载进行合理优化,那么就能助力数据中心提高性能和效率,再次实现总体拥有成本的降低。
我们了解到,西部数据长期以来致力于可编程的数据分区存储软件开发,不仅在高容量的SMR HDD管理软件方面不断创新,同时推出全新的ZNS SSD控制软件。与传统的NVMe SSD相比,ZNS NVMe SSD具有多种优势。这些ZNS SSD符合NVM Express公司定义并管理的ZNS功能集规范,旨在减少写放大,增加可用容量,并提供更高的吞吐量和更低的时延。
ZNS SSD通过将“区域”与SSD的内部物理属性进行匹配而实现这些改进,有效的减少数据存放低效能的现象。SMR和ZNS正在从根本上重塑云和企业数据中心,以确保在未来能够长期节约总体拥有成本。
同时作为在NVMe联盟持续做贡献以及长期为开源社区提供基于SMR工具的自然延伸,西部数据特别推出了ZonedStorage.io。该网站与开源社区、客户和行业参与者通力合作,目的是在开发人员社区内启动应用开发计划,帮助数据中心基础架构工程师更好的利用分区存储技术。
那么您是否想了解更多的关于存储架构转型升级的信息?是否全面了解如何既实现大容量的存储同时又不影响到存储性能,还能够降低企业数据存储的TCO? 是否想了解在 ZB 时代 SMR 在机架大规模使用上具有更好 TCO 优势?
近日我们将邀请西部数据高级副总裁兼中国区总经理 Steven Craig、西部数据产品市场部副总裁朱海翔,以及产品市场部高级总监 Eddie Ramirez,来深度了解西部数据的分区存储计划,赋能数据中心存储架构重构,最终实现海量数据更智能的存储和管理。
了解详细内容请点击:http://www.zhiding.cn/special/WDC_201908
好文章,需要你的鼓励
国际能源署发布的2025年世界能源展望报告显示,全球AI竞赛推动创纪录的石油、天然气、煤炭和核能消耗,加剧地缘政治紧张局势和气候危机。数据中心用电量预计到2035年将增长三倍,全球数据中心投资预计2025年达5800亿美元,超过全球石油供应投资的5400亿美元。报告呼吁采取新方法实现2050年净零排放目标。
维吉尼亚理工学院研究团队对58个大语言模型在单细胞生物学领域的应用进行了全面调查,将模型分为基础、文本桥接、空间多模态、表观遗传和智能代理五大类,涵盖细胞注释、轨迹预测、药物反应等八项核心任务。研究基于40多个公开数据集,建立了包含生物学理解、可解释性等十个维度的评估体系,为这个快速发展的交叉领域提供了首个系统性分析框架。
AMD首席执行官苏姿丰在纽约金融分析师日活动中表示,公司已准备好迎接AI浪潮并获得传统企业计算市场更多份额。AMD预计未来3-5年数据中心AI收入复合年增长率将超过80%,服务器CPU收入份额超过50%。公司2025年预期收入约340亿美元,其中数据中心业务160亿美元。MI400系列GPU采用2纳米工艺,Helios机架系统将提供强劲算力支持。
西湖大学王欢教授团队联合国际研究机构,针对AI推理模型内存消耗过大的问题,开发了RLKV技术框架。该技术通过强化学习识别推理模型中的关键"推理头",实现20-50%的内存缩减同时保持推理性能。研究发现推理头与检索头功能不同,前者负责维持逻辑连贯性。实验验证了技术在多个数学推理和编程任务中的有效性,为推理模型的大规模应用提供了现实可行的解决方案。