近日,华为云发布了深度学习服务,要让企业智能从此不求人。那么华为云的深度学习服务有哪些能力,为什么能够做到让企业智能从此不求人呢。
化繁为简-无需编程,自动训练企业业务模型
企业进行深度学习训练的第一个困难是技术难度高。企业要进行深度学习的模型训练,有很高的技术门槛。比如要自己搭建深度学习平台,要有懂得编程的技术人员,还要有海量的训练数据等等。而华为云深度学习服务,可以提供深度学习平台以及业界常用的深度学习引擎,免除企业自己搭建深度学习平台之苦。
同时,华为云深度学习服务,内置大量基于开源数据集训练好的模型,并支持模型选择自动化。用户在进行企业自己的模型训练时,只需要把企业标注好的数据加载到华为云深度学习服务中,该服务就可以快速自动的训练出企业的业务模型,这样就免除了模型训练的编程过程。比如在企业的生产场景,一般都有环境健康安全(EHS)检查。以前企业的EHS检查主要基于人工实现,耗时费力。现在企业人员基于华为的深度学习服务,自行加载标注好的环境健康安全检查项目标注图片,就可以很快生成EHS图片检测模型,后续企业进行EHS检查时,只需要拍摄现场照片,输入模型,就可以实现企业自动化EHS检查。
风驰电掣-模型训练速度快,亿级图片训练时间由30天降到小时级
企业进行深度学习训练的第二个困难是训练计算量大,训练时间长。由于深度学习需要使用海量数据来进行业务训练,因此计算资源需求很大,动则几十上百个GPU,甚至上千GPU等等;同时训练时间也很长,每次训练都是以天、周或甚至月年为单位。但是,开源的分布式训练框架,在保证模型收敛的情况下,最大集群规模只支持10块GPU。这意味着在进行数据运算时,即时使用更多的GPU,计算效果也只相当于10块GPU的能力,这样训练的时间将更加的漫长。
而华为云的深度学习服务,基于系统软硬件结合方案,搭载华为云的云容器引擎CCE、GPU高性能计算、对象存储服务(OBS)、高性能网络等能力,并对分布式训练的调度算法、分布式梯度压缩等进行深度优化后,在1000块GPU的大规模集群中,分布式训练线性加速比能达到0.8。这就意味着在亿级图片规模下的模型训练,华为深度学习的分布式模型训练时间可以从30天缩短至小时级。
神机妙算-算法优化,图片模型训练数量从百万级下降到千级
企业进行深度学习训练的第三个困难是训练数据量大。深度学习模型训练,要使用大量的训练数据。这已经是深度学习模型训练的常态。以图像识别为例,通用场景的图像识别算法模型,训练时往往需要至少百万级别的训练图片。
但是,华为云深度学习服务平台,对企业场景的算法模型进行了大量的优化,使得针对企业特定场景的模型训练数据需求大大降低。以企业特定场景的图像识别业务为例,华为优化的算法模型,只需要几千张训练图片,就可以达到令人满意的识别效果。以华为全球技术服务部的智能验收项目为例,该项目需要实现对电信设备类型的自动识别。常规方法至少需要几十万甚至上百万张训练图片。但是使用了华为优化模型算法后,华为的AI算法工程师,只使用了4000张图片,训练模型的识别准确率就达到了99%。
开放华为人工智能技术和实践经验,做企业智能的使能者
华为云深度学习服务的发布,大幅降低了企业深度学习训练的技术门槛、性能门槛和数据量门槛,因此,华为云深度学习服务的发布,让企业智能从此不求人,也就顺理成章了。那么,为什么华为云的深度学习服务具备这些能力呢。其实,如果读者了解华为云企业智能服务的来历,就不会感觉奇怪了。
华为从十多年前,就开始进行人工智能基础的大数据技术研发,并开发出了排名中国第一的大数据软件平台;而人工智能技术兴起后,华为的技术部门又开始进行人工智能技术的研发,并广泛应用于华为供应链、采购部、全球技术服务部、终端、以及产品研发的企业实践中。基于这些实践,华为的人工智能研发部门既加深了对技术的理解,同时了也积累了大量的人工智能实践经验,相应也在实践过程中对深度学习平台进行了很多优化,以降低内部使用深度学习平台进行模型训练的难度。现在,华为云深度学习服务平台秉承以服务的形式分享华为30年沉淀的数字化技术和实践经验的理念,将华为内部人工智能的技术研发成果与实践成果分享给企业用户与合作伙伴,做企业智能的使能者,并与众多企业用户及合作伙伴一起,共创中国人工智能美好的明天。
好文章,需要你的鼓励
从浙江安吉的桌椅,到广东佛山的沙发床垫、河南洛阳的钢制家具,再到福建福州的竹藤制品,中国各大高度专业化的家具产业带,都在不约而同地探索各自的数字化出海路径。
哥伦比亚大学研究团队开发了MathBode动态诊断工具,通过让数学题参数按正弦波变化来测试AI的动态推理能力。研究发现传统静态测试掩盖了AI的重要缺陷:几乎所有模型都表现出低通滤波特征和相位滞后现象,即在处理快速变化时会出现失真和延迟。该方法覆盖五个数学家族的测试,为AI模型选择和部署提供了新的评估维度。
研究人员正探索AI能否预测昏迷患者的医疗意愿,帮助医生做出生死决策。华盛顿大学研究员Ahmad正推进首个AI代理人试点项目,通过分析患者医疗数据预测其偏好。虽然准确率可达三分之二,但专家担心AI无法捕捉患者价值观的复杂性和动态变化。医生强调AI只能作为辅助工具,不应替代人类代理人,因为生死决策依赖具体情境且充满伦理挑战。
这项研究首次发现AI推理模型存在"雪球效应"问题——推理过程中的小错误会逐步放大,导致AI要么给出危险回答,要么过度拒绝正常请求。研究团队提出AdvChain方法,通过训练AI学习"错误-纠正"过程来获得自我纠错能力。实验显示该方法显著提升了AI的安全性和实用性,用1000个样本达到了传统方法15000个样本的效果,为AI安全训练开辟了新方向。