华为HUAWEI CONNECT 2016 全联接大会已经落幕,但是其传达的信息值得分享。其中华为SDN创新实践分享会和面向云业务的Cloud Fabric 5.0解决方案的发布值得分享大家。我们知道互联网是整个产业的先驱,在业界前列在云技术、SDN创新技术优先在互联网发生。包括大家熟悉腾讯、百度、京东等等。这些公司在运营自营业务同时获得了很强大技术能力,储备了强大的技术能力,于是各自推出基于公有云的服务。
但是当这些企业提供公有云的时候,带来的挑战是完全不同,当全球最大的一个电子商务网站,它的云业务满足全球的购物,它需求超大规模服务器集群,对时延可靠性要求非常高。但是公有云时候不同了,比如支持140万租户,比如租户有做金融和做网络游戏,他对业务开通速度要求非常高,包括每个用户要求可度量网络质量。公有云使得互联网公司发生了颠覆性的变化。如何解决公有云带来的业务需求呢?
华为企业网络产品线数据中心网络领域总经理余立和华为企业业务BG企业网络领域营销总监程剑与媒体代表做了交流。阐述了华为Cloud Fabric 5.0解决方案助力SDN创新实践。
余立在采访中说到,华为开放SDN解决方案,能够助力互联网云业务的高效运营,SDN解决方案能够实现开放控制器+开放的fabric,为互联网云业务实现快速上线、租户的精细运维、网络稳定可靠以及网络的弹性扩展。
Cloud Fabric 5.0的核心是华为Fabric Insight精细运维解决方案,该方案通过网络状态可视化度量管理和基于大数据的智能分析实现分钟级故障定位,帮助客户提升运维效率、降低运维成本。 华为数据中心网络领域总经理余立表示:“华为Fabric Insight精细运维解决方案,以面向业务的运维管理,帮助客户开启网络智能运维模式,减少业务云迁移中的阻碍,加速云转型升级。”
具体来讲华为Fabric Insight 精细运维解决方案,通过以下运维应用,帮助云数据中心有效提升运维效率。
全网可视化通过将“业务、逻辑、物理”三层网络对应的应用质量、逻辑和物理网元、功能特性使用情况等网络状态信息全面统计,对应用及网络的健康度进行全面度量和分析,使得大规模网络运维管理变得简单;
全网路径质量扫描,通过周期性自动获取网络路径质量状态,并跟随网络动态调整而变化,业务层故障时可自动关联物理设备。采用创新的大数据分析算法,100%网络路径探测同时加速探测效率,实现分钟级故障定位。
比如一些互联网企业中,瞬时搜索或者在线购物发生毫秒级别的丢包,当你在以秒级的精度检测发现流量没有丢包,对业务造成的影响无法快速定位华为Fabric Insight精细化运维能提供一个丢包的可视能力以及智能分析,通过全网数据统一分析处理,如果我们租户或者业务发生故障,我们能及时的定位到底那个物理网络的节点,甚至哪个端口,运维模式从被动运维走向主动调优。
同时华为发布一个100G弹性互联的解决方案。可以提供高于业界80倍的缓存能力,丰富了端到端大缓存高速互联解决方案的内涵,进一步提升业界领先的弹性组网能力,华为还发布了云数据中心SDN安全解决方案,将传统安全硬件转换为虚拟化安全服务,通过安全服务自动化开通与统一调度帮助数据中心租户提升云业务安全防护效率。尤其适合互联网视频搜索等大数据一些相关业务。
对于Cloud Fabric 5.0的未来发展,程剑认为华为就精细化运维方案而言,目前来在运维这块跟容器结合还在进一步的研发中,未来会推出与容器融合的软件解决方案。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。