作为全球领先的空运货站运营商,香港空运货站(Hactl)部署了新一代博科光纤通道存储网络交换解决方案,以期在未来五年加强数据中心的全天候运行。由博科合作伙伴日立数据系统实施的Brocade DCX 8510 Backbones让香港空运货站得以重新架构自己的存储网络,大幅降低运营成本,并且为支持更多数据密集型应用奠定了强大的高性能基础。
香港空运货站在香港国际机场的超级一号货站为100多家航空公司服务。超级一号货站是全球最大的多层空运货站,每年能够处理高达350万吨的空运货物。超级一号货站运营的核心是新一代航空货运管理系统COSAC-Plus。该系统让来自航空公司、货运代理商和相关政府机构的4000多个用户监测和管理香港空运货站处理的航空货运,通常每天处理近100万笔交易。香港机场是全球最繁忙的国际货运机场之一,香港空运货站全天候运营,以避免货物和飞机等待。
香港空运货站有限公司高级IT运营经理John Lee表示:“这些新的博科SAN交换机让我们把第一和第二层存储容量整合到虚拟化资源池中,用于生产、灾难恢复和开发域名。本质上,我们的存储环境更加简单、更加灵活。这不但让存储网络的运营成本整体降低70%,还大大提高了资源利用率。目前,我们的SAN速度基本上是4Gbps和8Gbps。作为第五代光纤通道设备,这些新的交换机支持16Gbps的吞吐量,让我们能够在SAN上运行包括商业智能和大数据分析在内的更多数据密集型系统。”
这个博科解决方案由日立数据系统(HDS)专业服务部门设计和实施,这是唯一一家提出的存储网络迁移方法比香港空运货站自己在标书中说明的方法还要好的供应商,给Lee留下了深刻印象。Lee表示,近2个月的实际迁移完美无缺,体现了日立数据系统一丝不苟的规划和准备。
博科香港、台湾和澳门区总监Franklin Sze表示:“香港空运货站很好地展现了SAN简化和虚拟化的优势。通过利用先进的博科SAN矩阵技术,香港空运货站的超级一号货站摆脱了运行复杂的两个独立的多层SAN,而是在整个货站中只拥有一个单层存储矩阵。这大大减轻了系统管理员的工作,让香港空运货站能够更高效地使用存储资源,从而提高了投资回报率。”
虽然香港空运货站的主数据中心距离二级数据中心大约550米,但他们的Brocade DCX 8500 Backbones都隶属于同一个SAN矩阵,这让两个数据中心内的存储资源可以整合到虚拟存储池中。这些骨干交换机还支持矩阵虚拟化,让香港空运货站的生产、开发和灾难恢复环境都有自己的存储矩阵。这些矩阵运行在相同的交换基础架构上,保持所需的数据水平和故障隔离,但不会增加成本和复杂性。这个新的基础架构总共支持超过100TB的数据中心存储和300台物理和虚拟服务器,有着充足的容量进行扩展。
Lee表示,香港空运货站新的SAN基础架构简化了故障排除,把管理需要的所有信息整合到一个采用博科Fabric Vision™技术的网络仪表板中,帮助实现最大化的可用性。Brocade DCX 8510 Backbones的另外一个重大优势是它支持在线固件升级,这意味着SAN现在可以无中断地运行并获得最新的功能,无需之前影响货站运营的维护时间。
通过新的博科SAN矩阵,香港空运货站计划升级其一级和二级存储阵列,以充分利用第五代光纤通道的性能。Lee表示,香港空运货站还希望利用Brocade DCX 8510 Backbones的集成的城域和全球扩展功能,从公司现有的磁带备份系统转到云备份。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。