Emulex公司和Dynatrace公司今日宣布共同推出全面集成解决方案NetPod。NetPod将Dynatrace的数据中心分析(DC RUM)和Emulex的EndaceProbe智能网络记录仪(Intelligent Network Recorders,INR)完美地结合在一起。NetPod可为网络团队提供高保真网络和应用交易级可视性及长期数据包存储功能。NetPod基于硬件的EndaceProbe INR可提供100%的数据包捕获、纳秒级时间标记和“回退(back-in-time)”播放功能,以及一个可监控用户体验的平台。NetPod可帮助优化数据中心内所有应用的性能、可扩展性和可预测性,包括Citrix、SAP、Oracle、Siebel、Microsoft Exchange等。
Emulex公司高级副总裁兼网络可视性产品总经理Ali Hedayati表示:“今天的IT团队需要不光可以帮助监控和发现性能问题的端到端工具。不管问题被隔离到客户端、网络、服务器还是数据库中,NetPod提供的基础数据包数据都可用于确保技术团队可获得显示问题根源所在的确凿证据。NetPod提供的应用上下文数据还可帮助在适当的时间快速提取正确的数据包,即使感兴趣的交易发生在过去也不例外。所有这一切可以简化以网络为中心的关键任务应用的交付,通过确保这些应用对最终用户的可用性来提高它们的业务价值。”
NetPod是一种设计用于高速10/40/100Gb以太网的解决方案,可提供对多个网络层、基础架构组件、Web及非Web应用的全面可视性。它可以智能地监控并记录包含主要负载均衡装置、防火墙、WAN加速装置及中间件的最复杂应用交付基础架构中的实时应用交易。
Dynatrace公司总经理John Van Siclen表示:“NetPod是Emulex和Dynatrace为满足双方企业和服务提供商客户的需求,倾力合作的成果。NetPod能以独特的方式了解主要应用、数据库和中间件的应用逻辑和用户行为。这套集成解决方案可填补网络和应用团队间的空白,为他们提供统一的信息来有效管理数字通道和基础架构。”
NetPod将从2015年第1季度开始通过部分具有必要AA-NPM和APM专业技术的Emulex及Dynatrace合作伙伴提供。凭借全面的AA-NPM和APM专业技术及NetPod客户支持能力,Forsythe和WWT将作为北美地区的第一批产品发布合作伙伴。
Forsythe公司系统解决方案副总裁Kevin Keuning表示:“NetPod提供了一种先进的解决方案。可解决我们客户面临的最复杂的网络和应用性能问题。部署复杂多层应用的网络团队需要能够高效地排除网络性能问题根源的人员和工具,而这又需要适当的信息和流程,帮助确保顺畅的通信并协作开发有效的解决方案。”
正如Emulex最近对网络和安全运行专业人员进行的调查所显示,IT团队费尽心机地查找问题根源。而这一过程中的主要困难在于缺乏帮助发现和解决问题所需的准确、及时的数据。
WWT公司总监兼数据中心业务主管Scott Miller指出:“开发有效的解决方案来帮助客户节约时间和成本,提供确定故障潜在根源所需的确凿证据,通过有意义而且有帮助的操作来排除故障或将故障根源隔离到具体组件上,这一点非常重要。NetPod可提供对多个数据中心层、基础架构组件、Web和非Web应用的全面可视性,帮助实现故障隔离。”
NetPod结合了多种关键技术来简化并自动完成应用交易分析:
• 对用户体验及性能和可用性问题的业务影响的持续评估;
• 实时数据包捕获(无丢包)和纳秒级时间标记确保可获得分析所需的所有必要数据;
• 所捕获数据包的深度存储(Deep storage),可在出现间歇性问题时实现“回退(back-in-time)”播放分析;
• 一整套应用协议解码,还有应用逻辑和用户环境信息;
• 与Dynatrace APM技术及需要接入数据包以确保安全性的第三方产品的无缝兼容性,实现全面的代码级交易跟踪、综合监控或移动设备监控。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。