5G和AI,可能是2018年最火的两个科技名词,同时也是一对不折不扣的CP。开发5G的通信厂商都在关注AI的价值,专注于AI技术的企业也会考量到其应用离不开强大的网络支撑。横跨计算与通信的英特尔,对于5G和AI是“两手抓,两手都要硬”,看好5G和AI的深度结合。
近日,英特尔在京以“AIx5G”为议题,举办了一场名为“THE NEXT 下午茶”的专家座谈会,邀请大学教授、媒体专家共同探讨5G与AI的聚变效应,为产业的未来提供思想动力和实践指引。在会上,清华大学计算机系教授及博士生导师、人工智能专家邓志东教授分享了他对AIx5G的理解。
5G是迄今最理想的连接
作为国内人工智能领域的权威专家,邓志东对人工智能的研究已有二十多年的历史。在座谈会上,邓志东指出,上世纪九十年代就在提的人工神经网络,核心就是一个可训练的分类器,输入特征是人工的;现在的卷积神经网络,有着本质的区别,在于对大数据的处理能力。
“以前并没有很好的方法处理数据,现在深度卷积神经网络有几十万个节点,甚至几百万个节点,能够非常好的处理大数据,这是人工智能带来的最大改变,赋能数据。”邓志东表示,大数据有两个端,一个是边缘端,还有一个是云端,需要全新的芯片架构来处理,也就是并行架构技术。
5G带来的改变,就是很好的解决了数据的连接问题。“5G从边缘端到云端的连接,是迄今可以遇到的最理想的连接,高可靠、低时延、高带宽。”邓志东说,面对数据洪流,人工智能是最好的处理技术,过滤数据、优化数据、针对多元化的应用场景解读数据。
邓志东认为,5G端到端的网络基础加上人工智能,就可能变成6G网络。端到端包括两层含义。一是输入端到输出端,需要深度学习深度神经网络;二是边缘端到云端之间,也要做这样的处理。但从自动驾驶的安全性上来看,连接不能是闭环的,一定要实现边缘端的局部自主。这样自动驾驶可实现边缘端和云端的两边同时赋能,既有数据能力十分强大的云端做支撑,又有局部自主计算的边缘端支持,端到端同时赋能。“对于自动驾驶来说,5G让它变成了一个更大的端。当然,这一块加上人工智能以后变成6G,自动驾驶就会变得更好了。”
会议的组织者英特尔,对5G与AI结合可能的成就,进行了更激进的描述。英特尔认为,原来业内共识是5G+AI,现在是5G×AI,这两种技术放在一起,可能产生巨大的能量。在英特尔中国研究院院长宋继强看来, AI是深度学习,将来不止是深度学习,还有概率、策略指导等技术,5G也将向5G PLUS演进。“这里面要做的事情非常多”。
高级阶段是认知智能
今年6月, 3GPP正式确定了5G独立组网标准(SA),5G第一阶段全功能标准化工作已经完成,标志着全球5G发展进入商用部署关键时期。预计2019年5G将可以小规模部署,2020年在主要国家和地区规模部署。那么,5G商用后,AI技术是否还可以提升?
在会议讨论环节,邓志东指出,从2012年到现在,五六年的时间里,深度神经网络已经取得了很大进步,包括一些技术的“刷分”(例如人脸识别的识别率),已经很高很高了。但这不是一个突破性的进步,是一个渐变的过程,是一个突变和质变的过程。
如何理解?邓志东表示,现在人工智能还没有“认知能力”,没有任何理解能力。他举例,驾驶汽车用两只眼睛观察就可以开车,既不需要高精地图,也不需要导航识别,这是最理想的情况,因为人眼有检测能力、分辨能力好理解能力,在认知理解的水平上开车。自动驾驶要做的,就是理解人的状态,即认知智能。
“主要是算法上,人工智能还没有根本性的突破,现在还是初级阶段。”邓志东说,但是,人工智能相比传统的机器学习方法和传统的模型识别方法,确实是一个很大的进步。真正的智能就是认知智能化,这是最高级的智能。如果这个技术得到突破,对整个人工智能的产业和体系,都会发生天翻地覆的变化。
站在企业的角度,宋继强补充,创新是一步步叠加的,5G和AI可以交替发展,这里面会有“聚变效应”,会带来颠覆性的创新机遇。英特尔对人工智能的目标,就是“自能(autonomous)”,设备或者系统能自主感知环境,并自主做决策——可能不是完整的决策,需要外界辅助,有了决策后还能对外反馈,从而形成一个闭环。
其实,在一些科幻电影中,我们已经能看到认知智能的影子。可以相信,对于5G和AI,未来绝非是简单的技术结合,两者之间的交集,将能够创造出无限的可能性,真正地丰富未来科技产业。
好文章,需要你的鼓励
在2025年KubeCon/CloudNativeCon北美大会上,云原生开发社区正努力超越AI炒作,理性应对人工智能带来的风险与机遇。随着开发者和运营人员广泛使用AI工具构建AI驱动的应用功能,平台工程迎来复兴。CNCF推出Kubernetes AI认证合规程序,为AI工作负载在Kubernetes上的部署设定开放标准。会议展示了网络基础设施层优化、AI辅助开发安全性提升以及AI SRE改善可观测性工作流等创新成果。
维吉尼亚理工学院研究团队对58个大语言模型在单细胞生物学领域的应用进行了全面调查,将模型分为基础、文本桥接、空间多模态、表观遗传和智能代理五大类,涵盖细胞注释、轨迹预测、药物反应等八项核心任务。研究基于40多个公开数据集,建立了包含生物学理解、可解释性等十个维度的评估体系,为这个快速发展的交叉领域提供了首个系统性分析框架。
DeepL作为欧洲AI领域的代表企业,正将业务拓展至翻译之外,推出面向企业的AI代理DeepL Agent。CEO库蒂洛夫斯基认为,虽然在日常翻译场景面临更多竞争,但在关键业务级别的企业翻译需求中,DeepL凭借高精度、质量控制和合规性仍具优势。他对欧盟AI法案表示担忧,认为过度监管可能阻碍创新,使欧洲在全球AI竞争中落后。
西湖大学王欢教授团队联合国际研究机构,针对AI推理模型内存消耗过大的问题,开发了RLKV技术框架。该技术通过强化学习识别推理模型中的关键"推理头",实现20-50%的内存缩减同时保持推理性能。研究发现推理头与检索头功能不同,前者负责维持逻辑连贯性。实验验证了技术在多个数学推理和编程任务中的有效性,为推理模型的大规模应用提供了现实可行的解决方案。