大家知道早在60年前,“人工智能”概念就正式提出。其发展曾经历了两次低谷,这两次低谷的原因一方面受质于人工智能三个因素,算力、算法和数据的制约。一方面受制于ICT的发展,没有实现数据的互联互通,人工智能就如同无源之水。而伴随ICT的技术发展,云计算、移动互联、大数据等技术也早已进入蓬勃式发展。在加上5G、物联网的发展,数据的海量增长,让人工智能再一次走进人们的视野。
IDC预测,今年40%的数字化转型项目将使用AI服务;到2021年,75%的商用企业级应用将使用AI;超过50%的消费者将享受机器人客服的服务,并且,50%以上的新型工业机器人将采用AI。可以说人类正在向一个万物感知、万物互联、万物智能的世界进化。
进入智能世界,核心是数据量的爆炸式增长。 IDC预测全球数据圈将从2018年的33ZB增至2025年的175ZB。一方面海量的数据蕴含着巨大的价值和商机。一方面对数据基础设施形成了新的挑战。
基于此,各个IT厂商纷纷变革,重塑数据基础设施。
海量数据的增长、越来越的应用上云、人工智能的高速发展,让IT厂商们首先嗅到需要变革的味道。这其中包括2015年10月戴尔670亿美元并购EMC。经过几年磨合之后,2018年戴尔科技重新上市,公布了2019年财报, 显示全年净营收906.21亿美元,而2018年为790.4亿美元,同比增长15%。这么大的增幅,对于一个巨无霸企业来说非常不容易,而2019年4月29日召开的戴尔科技全球大会上,戴尔科技的整体战略已经非常清楚。围绕戴尔科技边缘到核心到云的整个产品线进行创新。让所有产品实现在一个Dell Technologies cloud平台来为企业提供数字化转型的好工具。
同样是2015年,英特尔联合美光基于3D Xpoint的内存技术,来解决数据从计算到存储之间的的瓶颈问题。特别是对于固态盘和DRAM性能之间的差距,目前NAND SSD的时延与DRAM内存的时延是一万倍级别的差距。那么在处理大数据的时候,这个一万倍差距的延时就非常明显。英特尔于傲腾技术的持久内存和固态盘,对内存和存储层次进行结构创新。应该说,傲腾技术的出现打破了传统内存和存储的边界。目前采用英特尔全新处理器和傲腾技术的解决方案已经在数据中心应用。
IBM也是很早看到企业多云环境下的基础架构变化。同样是2015年,IBM逐步统一存储软件,到现在IBM Spectrum存储软件已经有16款产品,产品覆盖从存储管理到数据保护到数据上云到AI管理。2018年IBM提出Modern 架构希望通过Z系列主机、 LinuxONE、存储以及高性能计算打造的适应多云环境的现代基础架构。而这个架构中能够实现核心数据云、高密度整合云、混合数据云、异构存储云、绿色存储云、Power云、人工智能云等多种云组合让企业在云中漫步。
同样转型的还有HDS,HDS在高端存储一直处于领先地位。在2017年9月份, Hitachi集团宣布整合Hitachi Data Systems、Pentaho和Hitachi Insight Group三家公司成立的一个新公司Hitachi Vantara。其愿景是将Hitachi集团108年的运营技术(OT)和59年的信息技术(IT)经验、技术和行业经验完美结合在一起。通过不断深化领域专业知识为客户带来空前丰富的数据管理的能力,让Hitachi Vantara成为业内集分析、工业专业知识、技术和成果于一身的卓越软件与解决方案提供商。
到了2019年,Hitachi Vantara除了为企业提供核心存储平台之外,已经开始通过Pentaho来融合BI和大数据。通过AI、机器学习技术实现从数据抽取到数据湖的建立到数据挖掘分析。
华为进化的更是彻底。2018年华为推出AI战略与全栈全场景AI解决方案。华为全栈全场景的AI解决方案,正在从理念到战略、 从芯片到应用、从面向消费者(HiAI),到面向企业(华 为云EI),一步一个脚印地来实现无所不及的智能。同时华为将AI技术与IT产品与解决方案深度融合,推出金融级的分布式数据库,华为云FusionInsight大数据解决方案等。
华为还对计算架构进行多重重构。海量数据的产生不仅让计算架构对IT基础设施形成新的挑战,同时对AI算力需求每年将大大增加。这就需要多并发、低功耗的智能计算架构, 既有x86、也有专门用于图像处理的GPU、用于AI领域 的NPU、用于信号处理领域的DSP,可以说计算已经进入多样性时代,没有单一技术架构可以满足所有场景,多重架构是未来发展之路。
时间拉长来看,过去几十年的“以算力为中心”的IT基础设施已经发生改变。新的时代,是算力和存储平衡的时代。面临着多样性算力包括X86、ARM、GPU、NPU等计算平台。面临着多样性的数据,包括DRAM、3DXPOINT、NVME、NAND等存储设备。在这样的变化下,算力、数据接入、数据存储、数据处理以及数据使能都需要重定义,来真正让智能技术融入到数据基础设施中,来真正释放数据价值。
好文章,需要你的鼓励
香港中文大学与华为诺亚方舟实验室合作开发了PreMoe框架,解决了大型混合专家模型(MoE)在内存受限设备上的部署难题。研究团队发现MoE模型中的专家表现出明显的任务专业化特征,据此提出了概率专家精简(PEP)和任务自适应专家检索(TAER)两大核心技术。实验证明,DeepSeek-R1 671B模型在精简50%专家后仍保持97.2%的MATH500准确率,内存需求降至688GB;而更激进的精简方案(减少87.5%专家)也能保持72.0%的准确率。该方法适用于多种MoE架构,为强大AI系统的广泛部署铺平了道路。
SCIENCEBOARD是一项开创性研究,旨在评估多模态自主智能体在真实科学工作流中的表现。研究团队构建了一个包含169个高质量任务的基准测试,涵盖生物化学、天文学等六个科学领域,并开发了一个真实环境让智能体通过CLI或GUI接口与科学软件交互。实验评估表明,即使是最先进的模型在这些复杂科学任务上的成功率也仅为15%,远低于人类表现,揭示了当前技术的局限性并为未来科学智能体的发展提供了宝贵见解。
帝国理工学院的研究团队开发了AlphaMed,这是首个仅通过极简规则强化学习就能培养医疗推理能力的AI模型,无需依赖传统的思维链示范数据。通过分析数据信息丰富度和难度分布的影响,研究发现高信息量的医疗问答数据是推理能力的关键驱动因素。AlphaMed在六个医疗问答基准上取得了领先成绩,甚至超越了更大的封闭源模型,同时展现出自发的步骤推理能力,为医疗AI发展提供了更加开放、高效的新路径。
Alita是一种新型通用AI代理系统,采用极简设计理念,以"最小预定义,最大自我进化"为原则构建。由普林斯顿大学等多家机构研究团队开发的Alita,只配备一个核心能力和少量通用模块,能自主创建所需工具并重用为模型上下文协议(MCPs)。实验显示,Alita在GAIA基准测试上达到87.27%的通过率,超越包括OpenAI Deep Research在内的复杂系统,证明简约设计可带来卓越性能。