大家知道早在60年前,“人工智能”概念就正式提出。其发展曾经历了两次低谷,这两次低谷的原因一方面受质于人工智能三个因素,算力、算法和数据的制约。一方面受制于ICT的发展,没有实现数据的互联互通,人工智能就如同无源之水。而伴随ICT的技术发展,云计算、移动互联、大数据等技术也早已进入蓬勃式发展。在加上5G、物联网的发展,数据的海量增长,让人工智能再一次走进人们的视野。
IDC预测,今年40%的数字化转型项目将使用AI服务;到2021年,75%的商用企业级应用将使用AI;超过50%的消费者将享受机器人客服的服务,并且,50%以上的新型工业机器人将采用AI。可以说人类正在向一个万物感知、万物互联、万物智能的世界进化。
进入智能世界,核心是数据量的爆炸式增长。 IDC预测全球数据圈将从2018年的33ZB增至2025年的175ZB。一方面海量的数据蕴含着巨大的价值和商机。一方面对数据基础设施形成了新的挑战。
基于此,各个IT厂商纷纷变革,重塑数据基础设施。
海量数据的增长、越来越的应用上云、人工智能的高速发展,让IT厂商们首先嗅到需要变革的味道。这其中包括2015年10月戴尔670亿美元并购EMC。经过几年磨合之后,2018年戴尔科技重新上市,公布了2019年财报, 显示全年净营收906.21亿美元,而2018年为790.4亿美元,同比增长15%。这么大的增幅,对于一个巨无霸企业来说非常不容易,而2019年4月29日召开的戴尔科技全球大会上,戴尔科技的整体战略已经非常清楚。围绕戴尔科技边缘到核心到云的整个产品线进行创新。让所有产品实现在一个Dell Technologies cloud平台来为企业提供数字化转型的好工具。
同样是2015年,英特尔联合美光基于3D Xpoint的内存技术,来解决数据从计算到存储之间的的瓶颈问题。特别是对于固态盘和DRAM性能之间的差距,目前NAND SSD的时延与DRAM内存的时延是一万倍级别的差距。那么在处理大数据的时候,这个一万倍差距的延时就非常明显。英特尔于傲腾技术的持久内存和固态盘,对内存和存储层次进行结构创新。应该说,傲腾技术的出现打破了传统内存和存储的边界。目前采用英特尔全新处理器和傲腾技术的解决方案已经在数据中心应用。
IBM也是很早看到企业多云环境下的基础架构变化。同样是2015年,IBM逐步统一存储软件,到现在IBM Spectrum存储软件已经有16款产品,产品覆盖从存储管理到数据保护到数据上云到AI管理。2018年IBM提出Modern 架构希望通过Z系列主机、 LinuxONE、存储以及高性能计算打造的适应多云环境的现代基础架构。而这个架构中能够实现核心数据云、高密度整合云、混合数据云、异构存储云、绿色存储云、Power云、人工智能云等多种云组合让企业在云中漫步。
同样转型的还有HDS,HDS在高端存储一直处于领先地位。在2017年9月份, Hitachi集团宣布整合Hitachi Data Systems、Pentaho和Hitachi Insight Group三家公司成立的一个新公司Hitachi Vantara。其愿景是将Hitachi集团108年的运营技术(OT)和59年的信息技术(IT)经验、技术和行业经验完美结合在一起。通过不断深化领域专业知识为客户带来空前丰富的数据管理的能力,让Hitachi Vantara成为业内集分析、工业专业知识、技术和成果于一身的卓越软件与解决方案提供商。
到了2019年,Hitachi Vantara除了为企业提供核心存储平台之外,已经开始通过Pentaho来融合BI和大数据。通过AI、机器学习技术实现从数据抽取到数据湖的建立到数据挖掘分析。
华为进化的更是彻底。2018年华为推出AI战略与全栈全场景AI解决方案。华为全栈全场景的AI解决方案,正在从理念到战略、 从芯片到应用、从面向消费者(HiAI),到面向企业(华 为云EI),一步一个脚印地来实现无所不及的智能。同时华为将AI技术与IT产品与解决方案深度融合,推出金融级的分布式数据库,华为云FusionInsight大数据解决方案等。
华为还对计算架构进行多重重构。海量数据的产生不仅让计算架构对IT基础设施形成新的挑战,同时对AI算力需求每年将大大增加。这就需要多并发、低功耗的智能计算架构, 既有x86、也有专门用于图像处理的GPU、用于AI领域 的NPU、用于信号处理领域的DSP,可以说计算已经进入多样性时代,没有单一技术架构可以满足所有场景,多重架构是未来发展之路。
时间拉长来看,过去几十年的“以算力为中心”的IT基础设施已经发生改变。新的时代,是算力和存储平衡的时代。面临着多样性算力包括X86、ARM、GPU、NPU等计算平台。面临着多样性的数据,包括DRAM、3DXPOINT、NVME、NAND等存储设备。在这样的变化下,算力、数据接入、数据存储、数据处理以及数据使能都需要重定义,来真正让智能技术融入到数据基础设施中,来真正释放数据价值。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。