2023 年 9 月 25 日,北京 – 日立集团 (TSE: 6501) 旗下提供现代基础架构、数据管理与数字解决方案的子公司 Hitachi Vantara 今天宣布,在 2023 年 Gartner® 主存储魔力象限™ 报告中,Hitachi Vantara 入选“领导者”象限。在过去13 年里,Hitachi Vantara 已 15 次被 Gartner 报告评为领导者,其中包括今年入选主存储魔力象限。今年报告中评估的 Hitachi Vantara 产品是虚拟存储平台 (VSP) 5600 和软件定义块存储 (VSS Block) 解决方案。

下载 2023 年Gartner® 主存储魔力象限™ 报告:
https://www.hitachivantara.com/ext/2023-gartner-magic-quadrant-for-primary-storage.html
Hitachi Vantara 产品与解决方案副总裁 Gary Lyng 表示:“我们相信,在 2023 年主存储魔力象限报告中获评领导者,彰显了 Hitachi Vantara 在致力提供尖端存储解决方案所做出的不懈努力。我们认为,这一表彰说明我们的前瞻思维方式受到了认可,包括在系统全生命周期内大幅减少温室气体排放的能力,以及整合人工智能、机器学习、预测性分析等新兴技术以优化数据管理的能力。我们相信,Hitachi Vantara 在主存储魔力象限中连续多年榜上有名,不仅说明了我们系统和数据的可靠性,也进一步坚定了我们推动存储行业在创新和可持续发展之路上不断突破的决心。”
Hitachi Vantara 相信,在魔力象限报告中获评领导者,证实了公司对创新和以客户为中心的解决方案的长期承诺。Gartner 在魔力象限报告中指出:“领导者象限中的供应商在执行能力和愿景完整性方面的综合得分最高。获评领导者的公司拥有推动新技术被接受所需的市场份额、市场信誉、营销和销售能力。这些供应商对市场需求了解深刻。他们是创新者和思想领导者,拥有精心制定、阐述清晰的计划,使得客户及潜在客户在设计存储基础架构和战略时能够利用这些计划。此外,获评领导者的公司还在三个主要地区开展业务,财务表现稳定,并支持平台计划。”
随着当今企业环境的不断演变,除需为客户提供高速度和高效率的产品外,存储产品还必须做到更多。数据密集型技术和生成式人工智能等应用程序,正掀起一场奔向更高洞察力、自动化水平和可预测性的“淘金热”。但这些技术同时也使其运行所依赖的基础架构和混合云环境承受更大压力。近期的一份报告发现,72% 的中国公司担心其当前的基础架构将无法扩展以满足未来需求。数字基础架构必须提供自适应和弹性服务,通过平台更快地运行更多应用程序,并为现有工作负载增加更多容量。
Hitachi Vantara 的 VSP 5600 系列支持核心应用程序和云原生开发,并保证 100% 数据可用性。日立的 VSS 块存储旨在整合新型和核心工作负载,实施云优先策略以支持应用程序现代化。
Gartner 在报告中根据优势和注意事项对不同的供应商进行了评估。魔力象限报告采用图形化处理和一致的评估标准,可帮助企业快速确定技术供应商在实现其既定愿景方面的表现,以及他们在 Gartner 市场观点中的表现。如需全面了解Hitachi Vantara 的整个存储产品组合,请点击此处:
https://www.hitachivantara.com/en-us/products/storage-platforms/primary-block-storage.html。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。