
医院的HIS、LIS、CIS,PACS等主要应用系统的可靠性、可用性要求非常高,包含了整个医院里的从挂号管理到门诊等等重要业务。从HIS系统来看,是在线要求持续运行的高可用系统,其系统的安全稳定运行,数据的安全快速恢复至关重要,影响着整个医院的业务正常运转。数据和应用的可靠性与安全性以及不间断、快速恢复已经成为非常关键的因素。即如何提高"在线数据的高可用性"和"在线应用的高可用性",成为医院HIS系统首要解决的问题!数据可以说是每个系统的血脉,支撑着整个系统的正常运行。
眉山中医院自建立以来,医院始终坚持信息化建设,经过多年的发展,已经拥有完善的IT基础设施及一批专业的技术支持队伍。随着业务系统的增加,为了更加有效的管理IT基础设施,医院在之前便采用了服务器虚拟化平台,通过虚拟化技术将服务器资源、存储资源、网络资源全面池化,实现对所有资源的统一化、集中化、智能化调度和管理。
存储设备需要保证两个存储设备上的数据能够时刻保持一致,即服务器端的写操作I/O要能够同时送到两个存储设备,通常情况下,在操作系统层面是无法实现的。同时还要确保在一台磁盘阵列出现故障时,另外一个磁盘阵列能够迅速的提供数据传输,保证业务连续性。

通常会使用两台光纤交换机搭建整个本地存储网络的SAN架构,形成冗余架构,提高系统的稳定性;同时应用服务器配置光纤HBA卡与交换机通过光纤链路连接,提高数据的整体传输速度。
Infortrend DS 1012R通过FC-SAN存储网络提供高质量的数据存储服务。HIS系统的主要数据类型是结构化的数据库文件,数据量一般在500GB以内,数据IO的块大小为4K-8K,属于典型的并发小I/O应用,需要存储性能提供较高的IOPS性能,DS 1012R系列FC存储在高并发数据库应用下IOPS高达550K,数据吞吐量可达到5.5GB/s的顺序读和1.9GB/s的顺序写,如此卓越的数据处理效率既可以满足当下数据的存取需求,可在线动态扩充容量及性能,为客户提供富于弹性的数据存储架构,又能不断满足HIS系统规模扩展或多业务融合时严苛的存储性能及可靠性要求,DS 1012R的快照及数据复制功能则进一步强化了数据安全。

针对医疗行业日后非结构化数据的大量增加,如电影、图片和视频,对存储空间需求很大,因此成本较低、灵活性高、又能无限扩展的云存储将成为用户下一阶段的需求。Infortrend推出的EonStor GS/GSe/GSe Pro系列为统一存储解决方案,将SAN、NAS和云整合到一个系统,获得强大存储功能。内嵌Infortrend自主研发的虚拟化平台,更稳定更高效,可以独立支持SAN和NAS两套系统,可将数据存储性能发挥到极致。SAN架构下全闪存端对端实测45万IOPS,11GB/s数据吞吐量,以及NAS架构下实测3GB/s带宽,再配合丰富的企业级数据服务,让EonStor GS系列在支持大数据存储容量,数据分析和数据安全中,成为真正的核心。其中最大亮点整合支持云存储,支持私有云和公有云服务,协助打造各种医疗云、政府云、广电云等,为客户的大数据保驾护航。
Infortrend始终秉承"技术创新"的理念,专注于专业磁盘阵列系统的研发与制造,掌握所有最尖端的专业存储技术,所生产的盘阵可分别支持SCSI、Fibre、SATA及SAS等多种不同的磁盘接口,从研发设计,到售后服务,"用户至上"的理念始终贯穿于Infortrend的整个生产销售流程. Infortrend EonStor,是您绝对值得信赖的存储伙伴。
好文章,需要你的鼓励
亚马逊云服务宣布雷尼尔项目正式投入运营,该AI超级集群配备近50万块Trainium2芯片,分布在多个数据中心。AWS称这是全球最大的AI计算集群之一,从宣布到全面运营仅用不到一年时间。合作伙伴Anthropic计划年底前扩展到超过100万块芯片。该项目与OpenAI星门计划展开激烈竞争,AWS凭借自主硬件开发优势能够控制从芯片到数据中心的完整技术栈。
约翰斯·霍普金斯大学研究团队提出了创新的隐私保护AI文本生成方法,通过"控制代码"系统指导AI生成虚假敏感信息来替代真实数据。该方法采用"藏身于众"策略,在医疗法律等敏感领域测试中实现了接近零的隐私泄露率,同时保持了高质量的文本生成效果,为高风险领域的AI应用提供了实用的隐私保护解决方案。
谷歌开始推出Fitbit应用的重大更新,采用全新设计并集成由Gemini AI驱动的个人教练功能。该更新于10月28日首先面向美国地区的Fitbit Premium用户开放,后续将逐步扩大覆盖范围。新版本围绕今日、健身、睡眠和健康四个主要标签重新设计,强调周趋势数据分析。AI教练功能可根据用户的实时和历史数据提供个性化建议和训练计划,支持语音或文字交互。用户可选择是否使用AI功能,预览期间可在新旧界面间切换。
这项由Reactive AI提出的稀疏查询注意力机制通过减少查询头数量而非键值头数量,直接降低了注意力层的计算复杂度,实现了2-3倍的训练和编码加速。该方法在长序列处理中表现出色,在20万词汇序列上达到3.5倍加速,且模型质量损失微乎其微,为计算密集型AI应用提供了新的优化路径。