Partner Content AI 数据呈指数级增长,导致存储环境日益复杂,数据需要安全地存储、保留和维护。
传统存储方法正在升级以应对海量数据涌入。这一升级的关键支柱是以应用交付控制器 (ADC) 形式实现的负载均衡和智能流量管理,其中数据就是应用本身。
面对这一挑战和客户端应用的新需求,组织正在从传统存储转向可扩展的基于云的对象存储解决方案 (通常是 S3 协议),以追求高性能、安全和可扩展的 AI 数据管理。基于云的对象存储是一种可靠、高效且经济的方式,用于存储、归档、备份和管理大量静态或非结构化数据。
此外,组织正在转移工作负载以构建 AI 就绪基础设施,使数据更接近他们计划利用的 AI 模型。这种数据移动创造了复杂的流量模式,对跨越本地、混合和云基础设施的应用交付提出了要求。在许多情况下,数据在这些不同位置之间持续移动。
为支持 AI 和根深蒂固的混合 IT 模型,组织必须创建能够支持任何环境下交付需求的应用交付平台。依赖 AI 进行业务和运营功能数据分析的组织需要高效、可扩展、高速的数据访问解决方案。应用交付控制器 (ADC) 必须能够在任何部署应用的地方部署。一个关键解决方案是集成了全局服务器负载均衡 (GSLB)、负载均衡 (LB) 和数据或应用交付的 ADC 平台。
负载均衡器强化对象存储
一个有效的负载均衡器通过在服务器集群间分配网络或应用流量来提高响应性并增加应用性能。
对象存储的一个主要优势是能够在分布式数据中心内部和之间轻松复制数据,用于异地备份甚至跨地理位置备份。负载均衡确保即使磁盘或集群节点发生故障,存储系统也能平稳运行。负载均衡器允许存储供应商在多个位置分配和存储数据,以便在故障转移时使用。
在存储节点和集群、不同生态系统以及客户端应用之间进行端到端工作流负载均衡,有助于推动对象存储系统的可扩展性,并在 AI 数据管理中保持顺畅的数据访问和分析。
ADC 提供一个战略控制点,所有流量都通过这个点,使企业能够优化、保护和扩展 AI 应用。只需一个接口和 API,组织无需创建孤立的团队来处理应用交付和安全性。
AI 对存储和处理能力的需求对利用 AI 功能所需的数据可用性有重大影响,从机器学习算法到实时分析都是如此。
将负载均衡器添加到对象存储基础设施中,并在与应用资源相同的环境中同时运行。增强数据管理应用的工作流程,为分析、机器学习 (ML) 和 AI 提供可靠的运行时环境。
基于预先建立的指标,GSLB 可以将用户路由到最近的可用服务器。无论是在物理、虚拟还是云环境中,如果主服务器宕机或受损,通过将流量定向到其他位置托管的服务器来提高可靠性和故障转移能力。内容从距离请求用户更近的服务器传递,以最小化网络延迟和网络问题的可能性。可用性服务跨越数据中心和云托管应用。
负载均衡器使用大量访问控制列表 (ACL)、规则和拓扑信息来引导用户到正确的位置访问存储。对于多站点部署,GSLB 的拓扑功能可用于将源子网与位置匹配,帮助用户在本地访问其资源,除非发生故障转移。
优化 AI 数据工作流的需求
F5 BIG-IP、F5 Distributed Cloud Services 和 F5 NGINX 提供所需的安全性、网络连接、部署灵活性和流量管理,用于在云端、边缘或 F5 全球网络中连接、保护和管理 AI/ML 应用和工作负载。
F5 BIG-IP 提供可扩展的高性能流量负载均衡,在 F5 VELOS 的 32 个刀片上提供超过 3 Tbps 的第 4/7 层吞吐量。这些功能通过促进优化的数据流、强大的安全性和无缝的混合和多云网络来支持现代 AI 部署和大规模数据基础设施中的工作负载。
为了增强 AI 工作负载,特别是在百亿亿级规模上,F5 将 MinIO 的高性能 Kubernetes 原生对象存储解决方案与其安全多云网络和高吞吐量管理专业知识相结合。
S3 兼容性意味着与 AI 生态系统中的工具和服务无缝集成,实现顺畅的数据流和互操作性。无论底层基础设施如何,都能在公共云、私有云和混合云环境中一致运行,优化性能和资源利用。S3 兼容存储在 AI 应用中很受欢迎,因为它能够将数据从云端迁移到本地,在大量数据场景中实现更大的可扩展性和性能。
F5 和 MinIO 的合作旨在提供支持 AI 模型训练和在 AI 工厂中微调工作负载所需的高性能负载均衡和高容量吞吐量。F5 BIG-IP 解决方案在 MinIO 的 S3 兼容存储和 AI 对象存储前端,将数据密集型操作的带宽扩展到数百 Gbps。它优化了 AI 的数据流,并实现了存储和处理用于高级分析和 AI 应用的大型数据集所需的可扩展性。
MinIO 和 F5 使数据能够在分布式基础设施中安全存储和管理。数据可以保持在靠近使用、处理和分析数据的计算资源的位置,以实现最佳性能。跨多个 MinIO 位置部署的 F5 Distributed Cloud Customer Edge 为无缝数据移动铺平了道路,打破了数据孤岛。
支持百亿亿级 AI 数据管理
例如,一家全球制造公司使用 F5 的安全流量管理来实时高效地从边缘直接收集、传输和保护数据到中央数据湖。F5 Distributed Cloud Mesh 和全局流量管理促进了从边缘到基于 MinIO 的中央数据湖的安全、高效数据摄取,用于 AI 模型训练、商业智能和数据分析。
这种百亿亿级的数据收集和管理对于越来越依赖 AI 建模和来自传感器、摄像头和其他遥测系统生成的大量数据以培养自主能力的行业至关重要。
在快速发展的数据管理领域,ADC 已成为管理大量非结构化数据的基石。
F5 与创新存储解决方案提供商 (如 MinIO 和 NetApp StorageGRID) 的合作,以及与 NVIDIA 在 AI 基础设施优化方面的合作,凸显了其推动数据管理边界的承诺。随着数据量和重要性的增长,F5 旨在解决当前的数据管理挑战,并支持未来的 AI 和多云环境。
随着各行业大规模采用 AI,F5 继续提供优化工作流程、保护数据完整性和释放现代应用全部潜力所需的工具,以应对不断发展的数字化环境。
好文章,需要你的鼓励
国际能源署发布的2025年世界能源展望报告显示,全球AI竞赛推动创纪录的石油、天然气、煤炭和核能消耗,加剧地缘政治紧张局势和气候危机。数据中心用电量预计到2035年将增长三倍,全球数据中心投资预计2025年达5800亿美元,超过全球石油供应投资的5400亿美元。报告呼吁采取新方法实现2050年净零排放目标。
维吉尼亚理工学院研究团队对58个大语言模型在单细胞生物学领域的应用进行了全面调查,将模型分为基础、文本桥接、空间多模态、表观遗传和智能代理五大类,涵盖细胞注释、轨迹预测、药物反应等八项核心任务。研究基于40多个公开数据集,建立了包含生物学理解、可解释性等十个维度的评估体系,为这个快速发展的交叉领域提供了首个系统性分析框架。
AMD首席执行官苏姿丰在纽约金融分析师日活动中表示,公司已准备好迎接AI浪潮并获得传统企业计算市场更多份额。AMD预计未来3-5年数据中心AI收入复合年增长率将超过80%,服务器CPU收入份额超过50%。公司2025年预期收入约340亿美元,其中数据中心业务160亿美元。MI400系列GPU采用2纳米工艺,Helios机架系统将提供强劲算力支持。
西湖大学王欢教授团队联合国际研究机构,针对AI推理模型内存消耗过大的问题,开发了RLKV技术框架。该技术通过强化学习识别推理模型中的关键"推理头",实现20-50%的内存缩减同时保持推理性能。研究发现推理头与检索头功能不同,前者负责维持逻辑连贯性。实验验证了技术在多个数学推理和编程任务中的有效性,为推理模型的大规模应用提供了现实可行的解决方案。