AI和计算相互需求彼此促进——中美顶尖专家说

计算是如何推动AI发展?AI发展对计算提出了什么挑战?在近期举行的2018人工智能计算大会AICC上,来自中美工程院、顶尖大学和AI领先科技公司的专家就此展开了深入而精彩的阐述和交流。

计算是如何推动AI发展?AI发展对计算提出了什么挑战?在近期举行的2018人工智能计算大会AICC上,来自中美工程院、顶尖大学和AI领先科技公司的专家就此展开了深入而精彩的阐述和交流。

AI和计算相互需求彼此促进

“人工智能正在推动人类社会快速进入智慧时代,而智慧时代的核心驱动力或者说生产力,就是计算。”中国工程院院士、浪潮集团首席科学家王恩东对计算的重要性,给予了很高的肯定。

王恩东认为,计算促进了人工智能发展,人工智能反过来也促进了计算的变革与创新,两者相辅相成。人工智能与计算的融合发展趋势将不断加强,成为高性能计算、边缘计算以及未来量子计算最重要的应用场景,同时人工智能也对计算提出了更多的挑战,可定制计算受到越来越多公司的重视,开始尝试在实际业务中使用FPGA、ASIC等定制芯片为人工智能加速,这促进了计算的多元化发展。

AI和计算相互需求彼此促进——中美顶尖专家说中国工程院院士、浪潮集团首席科学家王恩东

计算如何应对AI的需求

众所周知,这轮人工智能浪潮爆发很重要的一个原因,就在于以GPU为代表的异构计算带来的算力的跨越式发展,为深度神经网络算法应用于大数据处理提供了可能性。来自OpenAI的一份报告佐证了这一点,2012年以来,AI训练中使用的计算力每3.5个月增长一倍,6年增长30万倍以上。在此期间,硬件算力的提升一直是人工智能快速发展的重要因素。目前,GPU加速计算成为一种主流的AI计算形态,同时可定制计算开始兴起,谷歌、寒武纪、百度等公司都推出了自主研发的AI芯片。

美国杜克大学终身副教授、美国自然科学基金委智能与可持续计算产学合作中心主任陈怡然是一位从事AI芯片研究的顶尖学者。他认为“过去五年如果单看GPU的单板计算能力,只提高了3-4倍,但参数提高了几百上千倍。需要有更加高效的AI芯片,才能弥补摩尔定律本身发展限制以及参数增加所带来的算力差距。”

微软加速器CEO檀林则认为:“英特尔再迭代两到三代,基本就到物理极限了,通用计算的这种芯片结构未来已经不能引领信息产业发展。现在出现这么多XPU是一件好事,超级摩尔定律会在不同的新的技术里继续发挥摩尔定律的原则,推动技术的发展和应用的百花齐放。”此外,来自商汤科技研究院的总监颜深根还谈到:“在AI领域比如图像、语音计算模式有很大的区别,在不同的应用场景下计算模式也有很大的区别,例如在移动端、在物联网设备上和在服务器上也有很大的区别,因此XPU的发展趋势会持续下去。”

美国工程院院士、美国加州大学洛杉矶分校教授丛京生是一位从事可定制计算研究的顶尖学者,他认为“AI发展一是因为互联网带来的大数据,二是计算使AI无所不在。深度学习实际上是借助大数据和大计算来完成的,但神经网络的复杂性增长的非常快,可定制计算必须要达到相应的计算能力才能推动人工智能的继续发展。”在丛京生看来,今后AI的大多数计算工作都将在可定制的专用加速器上来运算,而通用处理器只负责协调计算的过程,“这是一个非常漂亮的技术,它有一个共用的数据通道,再加上控制逻辑,各种各样的指令都可以执行。”

除了专用加速器这一方向,如何让现有的产品和技术发挥最大价值也是方法之一。浪潮AI&HPC总经理刘军谈到“如何在计算量剧增的环境下获得更高的研发效力是一大挑战,浪潮的AI计算产品线一直在追求极致的性能。”据悉,在此次AICC大会上,浪潮发布的AI超级服务器AGX-5每秒可提供的AI计算是2千万亿次!

谷歌首席AI科学家Jeff Dean曾经说过:“我们需要的是超过现在一百万倍的计算能力。”或许,这句话更能反映出AI发展对计算的焦灼与期待。

AI给计算提出新挑战

现实正如王恩东院士所说那样,AI对计算力的无止境需求,正推动越来越多的计算形态涌现,可定制计算、边缘计算乃至更加颠覆性的量子计算技术,为AI计算赋予了充满想象空间的未来。

百度深度学习技术平台部负责人马艳军谈到AI深度学习跟硬件结合需要在并行能力、调度、异构计算等领域做进一步的整合融合来提升效率。陈怡然教授则认为AI芯片要想提高能效,一定要打破通用性。但目前在设计上依然面临5大挑战,一是大容量存储和高密度计算,二是面向特定领域的架构设计,三是终端和“云”的需求差异,四是芯片设计要求高、周期长、成本昂贵,五是架构及工艺面临的挑战。

在业界看来,采用半导体工艺的经典计算机在未来数年之间,很可能就会到达工艺的极限,这也让很多人对量子计算寄予厚望。在中国科学技术大学的朱晓波教授看来,超导量子计算比所有的经典计算机都要快,但建造量子计算机的一个核心难题是可扩展性和隔离性的内存性矛盾,“量子比特的脆弱性远远不能用经典比特理解,它是高精度模拟的,是量子化的,如果受到的干扰稍微大一点点,它的信息根本没法保存和运算,要求跟外界环境和相互作用的比特隔离起来。但同时我们又希望可以将它扩展成一个通用的计算机,至少要几千几万个比特才能进行精准计算。“

朱晓波坦承:“在很长一段时间内,量子计算的加速能力更多会局限在某些特定问题上,但将来云接入量子计算会是一个趋势。”

虽然量子计算还远没有到应用阶段,但从谷歌、微软、IBM等科技巨头的动向看,量子计算和人工智能的结合将是未来最大的热门科技之一。

中国工程院院士、北京大学教授高文所从事的类脑视觉研究,是一个典型的边缘计算+AI的融合技术。“现在云端的视频处理,大部分是没有效的,只有少部分能有效工作,“在他看来:“我们现在需要一场革命,把现在的摄像头颠覆掉,按照类脑的方式做一个新的摄像头,做一个新的视觉系统。而这项研究的挑战之一,就是未来怎么将数字视网膜或者类脑数字视网膜变成芯片,集成到摄像头之中,这是业界共同的挑战。

AI与计算的密切关系,或许比想象中还要来的紧密,这也促使我们对AI计算投入更多的重视。而围绕AI需求研讨AI计算,促进AI技术创新与合作发展,恰恰是AICC大会的宗旨所在。作为一个国际性的AI计算交流平台,AICC大会致力于推动“计算让AI无处不在“。

来源:业界供稿

0赞

好文章,需要你的鼓励

2018

09/25

15:53

分享

点赞

邮件订阅
白皮书