近日,科技部、国家卫健委等六部门联合发布《关于加快场景创新以人工智能高水平应用促进经济高质量发展的指导意见》,提出要在医疗健康等领域持续挖掘人工智能应用场景机会,积极探索智慧医院等场景。近年国家到地方一系列政策都在鼓励与推动互联网+医疗、智慧医院发展,提升患者就医体验,进一步加速区域医疗、医联体、分级诊疗、医疗转诊和智能化建设。
为此,日立集团 (TSE: 6501) 旗下提供数字基础架构、数据管理与分析及数字解决方案的子公司 Hitachi Vantara 与北京大学第三医院(简称“北医三院”)开展深度合作,共同应对其IT基础架构与高速发展的业务不匹配带来的重重挑战。通过部署Hitachi Vantara企业级高端存储系列产品VSP 5000系列,北医三院收获了高性能、高可靠、高可用,以及能够快速响应用户需求的存储平台,保障前端各项业务系统稳定可靠,后端数据备份保护实时在线,满足医院持续推进智慧医疗相关业务创新的长期需求。
挑战:IT基础架构难以满足业务发展需求
北医三院是一所集医疗、教学、科研、预防保健、康复与健康管理为一体的大型、一流综合性三甲医院,拥有20个国家临床重点专科。十多年来,其门、急诊量始终居于北京市前列。随着医院规模的壮大、科研水平的不断提高以及新冠疫情的影响,北医三院需要更快速且持续地响应不断增长的患者需求,提升患者体验。
IT基础架构是支撑医院业务发展的数字底座。高速的业务发展致使北医三院原有IT基础架构不堪重负。
在存储设备方面,由于原有的存储设备投运年限较长,其性能和可靠性逐渐不能满足高速发展的业务的需求。在业务连续性建设方面,传统的同步容灾模式已无法24/7响应用户的需求。在日常运维方面,由于传统模式运维的复杂度较高,维护人员工作任务繁重、工作压力过大。
解决方案:基于VSP 5000系列部署全闪双活解决方案,实现两地三中心容灾规划
北医三院在对各厂商的存储产品和技术路线进行横向对比,以及与Hitachi Vantara进行了细致入微的技术交流后,最终选用Hitachi Vantara的高端存储VSP 5000系列作为其双活数据中心的基础存储平台,积极应对技术和业务方面的挑战。
Hitachi VSP 5000系列
北医三院升级改造后的IT基础架构具备以下优势:
主要成果:显著增强业务连续性保护,大幅提升业务系统效率
本着“最少投入,最短周期,满足基本要求”的原则,Hitachi Vantara为北医三院打造了一个安全、稳定、可靠的运行平台,实现了HIS、EMR、LIS这些全院级核心系统以及VMware等平台的双活高可用。
通过部署VSP 5000系列,利用其高性能和全闪存优势,医院应用响应时间大幅缩短,能够快速响应用户需求。关键业务数据采用闪存盘后,在机房空间节省50%的同时,实现性能提升两倍以上。此外,VSP 5000系列还具备极高的性能扩展能力,满足医院未来数年的性能增长需求。
Hitachi Vantara搭建的这套方案,确保停机时间降至0。过去,传统存储需要申请数小时停机时间来更换核心部件、升级微码等,并且执行这些任务的时间窗口往往难以申请。现在,单台存储即可实现在线更换核心部件、升级微码;使用GAD双活技术后,即使是数据中心级的维护也无需中断业务,实现了业务的连续性。此外,100%数据可用性承诺消除了用户对数据安全的后顾之忧。
存储系统的稳定性、可靠性与性能高低,直接影响医者工作体验、患者就医体验与智慧医院建设。Hitachi Vantara基于VSP 5000系列设计的全闪双活解决方案,有效解决了北医三院原有IT系统性能和可靠性不足、运维负担重等问题,助力医院更好地服务全国各地的患者。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。