2018年华为全联接大会已经落幕。今年大会有不一样之处,在这之前是“云”“管”“端”战略,2018年之后,相信很长一段时间会是AI+“云”“管”“端”战略。
对于华为来说算是一个新的起点。我谈几点个人的看法。
从最早的华为云计算大会,到今年已经第三届的华为全联接大会,我每次参会,从大的层面都想看一看,华为推出的产品和解决方案,是否是像任正非说的聚焦在工具上,助力在实体上。
我也在看华为每次的做出来的“工具”是否走样?是否是变成绚丽的“金斧头、银斧头” ,是否是炫耀锄头,而忘了锄头的种地功能?
还好,全联接大会的主题一直延续着“工具”来发展,没有走样。这次主打的华为全栈全场景AI解决方案,在我看来,当属“工具”无疑,还是具有强大多功能的“工具”。是能够创造更多机会的“工具”。未来是能给企业用户提供强大的帮助能力的“工具”
主航道对于任何一个大型企业来讲都非常重要。偏离航线就可能面临覆灭的危险。所以华为的主航道战略几十年来从最早的“管”,到“云”,在到“端”。也是从不断试错中摸索出来的。
此次大会上,华为发的全栈全场景AI解决方案,其核心是让“云”“管”“端”灵动起来。其主航道聚焦没有变。
为了让主航道更快、更宽、更强,是华为研发的AI芯片的原因,这次华为发布的是两颗芯片。当然未来会陆陆续续发布一系列芯片。
这些芯片能够是从云到边缘、到端、还有不同物联网终端,全场景支持人工智能,其架构最最关键的是有一个统一的达芬奇架构来支撑。在我看来华为最大的魄力和技术创新是个统一的达芬奇架构下能够解决从极致的低功耗需求到极致的大算力需求全覆盖。
也就是说,你能想到的智能设备,其数据的流动将不存在羁绊。
任正非讲过一句话,说华为已经进入无人区。大的方向看这是因为基础科学停滞不前,美国之前拥有的数十年的领先优势,慢慢被拉平。所有今天全人类面临的问题是理论进入瓶颈期,技术创新进入滞后期。
从企业来看,这不仅仅是华为面临的问题,包括今天各个行业的领头者都面临的问题。没有引领者,只能往前走,往任意一个方向都可以说是往前走。那么就面临着真正的往前走,也可能往回走。任正非讲未来华为的发展只要“方向大致正确”。那么AI是否是任正非所说的“方向大致正确”方向?
那么AI是大致方向正确的领域吗?如果从分蛋糕的角度看,从AI身上获取利润的空间远远大于人类。
因为人类的增长有限,比如人类的数量在2018年总人口预计74亿多一点,但是到了2050年,预测总人口也就是80亿。企业来从人类身上挖掘利润促进发展的压力越来越大。
但是AI增长是无限的。就是到2020年,预测就有1000亿个智能终端出现,到2050年,上万亿个智能设备出现也不足为奇。首先如果每个智能设备的芯片华为能分一份蛋糕,那么都是数十万亿到百万亿人民币的市场。
所以未来服务AI,赚取AI的利润将成为企业发展的方向。这么看来,AI方向大致正确。
当然对于华为来讲,在没有引领者的时候,只能是自己摸索,摸索困难重重。
华为从跟随到引领,要突破无人区,要突破不确定性,其成本和魄力值得大家思考。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。