云计算的潮流仍方兴未艾,而边缘计算又从何说起?
提到边缘计算,还得从物联网说起。时至今日,物联网在IT领域的发展趋势已然成型,且前景依然广阔。有人称物联网是人类继工业革命和信息革命后的又一场伟大革命。当然,伟大革命的兴起也必将会催生数十个万亿级的经济市场,人类社会也将进入一个智能智慧的全新时代。
而物联网发展至今,面临的关键挑战是如何从如此多的设备上处理数据。据思科预测,到2021年全球云数据中心流量将达到每年19.5 ZB,比2016年的每年6.0 ZB增长3.3倍,2016年到2021年的年复合增长率(CAGR)高达27%。到2021年全球云数据中心流量将占到数据中心总流量的95%,比2016年的88%增长显著。
因此,强劲的市场需求进一步驱动物联网发展,当然,从物联网的发展中也看到了云计算的苗头。众所周知,在万物互联的时代,可穿戴设备、无人机、无人驾驶等更多的终端设备对云计算中心的依赖愈加强烈。物联网主要处理设备上生成的有价值的数据,云计算的运用是来自集中式计算和存储的数据。在这样的趋势下,两者之间需要一种技术去辅助计算并处理数据。
这时,边缘计算应运而生。首先来简谈下概念,边缘计算是将大部分数据处理推送到网络的边缘侧,融合了网络、计算、存储、应用核心能力的开放计算平台,就近提供边缘智能服务,满足在数字化时代在敏捷联接、实时业务、数据优化、应用智能、安全与隐私保护等方面的关键需求。
如果将云计算中心比作为大脑,那么边缘计算更像是大脑输出的神经触角,联接到各个智能终端。两者的关系就是边缘和集中系统之间处理的分割问题。比如智能家居中网关可被视为家庭内电子设备和云计算中心之间的边缘;又如可穿戴的医疗设备可被视为个人用户与云计算中心之间的边缘。由此可以看出,边缘计算确实在当下提供了更多的便利,也正是因为其优势,业内流传了"边缘计算将取代云计算的"舆论。
事实上,边缘计算的模型与云计算模型不是非此即彼的关系,而是相辅助相成的。两者的巧妙结合也为万物互联时代的信息处理提供完美的软硬件平台支撑。在前面也提到了,云计算主要是处理和存储的集中化,为计算提供一个更加高效和可扩展的平台。边缘计算只是简单地将处理和存储的一部分靠近产生和使用数据的设备,它将成为我们云中部署支持特定用例的方法之一,而物联网是目前最适用的。
至于取代的问题,在笔者看来,技术上是应该不会的,即使云计算将取代所有内部计算的预言也是很牵强。虽然大量的本地系统可以迁移到公有云,但这些系统中很大一部分不能由于在公有云上没有平台类比,亦或是迁移成本太高。
也可以理解为一个脚趾代替一个身体。云计算是一个涵盖所有类型的计算方法和技术的广泛概念,可以把它看成一个宏观的技术模式。边缘计算只是一个微观模式。
搭载物联网的发展,边缘计算也迎来了大好春天。业内厂商自然也不会放过这块蛋糕。据了解,在2017年华为全联接大会上,华为网络研发部负责人介绍目前正在面向中欧做边缘计算做开发测试云,并在工业无线、数据集成、SDN等关键领域展开技术布局,将持续投放技术研究。
英特尔在安防、车载交通、零售和工业四大行业纷纷进行边缘计算一系列探索。除此之外,近期还公布了名为英特尔Xeon D-2100处理器,以帮助那些希望将计算推向边缘的客户,可以看出英特尔也在努力顺应物联网、边缘计算等新兴技术趋势。
另外,中兴通讯已经拥有了完整的边缘计算解决方案以及包括虚拟化技术、容器技术、分流技术等核心技术和专利,相关解决方案覆盖物联网、车联网、本地缓存等六大场景。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。