机器学习 (ML) 正成为嵌入式设计人员开发或改进各种产品的标准要求。为满足这一需求,Microchip Technology Inc.(美国微芯科技公司)近日推出了全新的MPLAB® 机器学习开发工具包,提供一套完整的集成工作流程来简化机器学习模型开发。这款软件工具包可用于Microchip的各类单片机 (MCU) 和微处理器 (MPU) 产品组合,助力开发人员快速高效地添加机器学习推理。

Microchip开发系统业务部副总裁Rodger Richey表示:“机器学习是嵌入式控制器的新常态,与依赖云通信进行处理的系统相比,在边缘利用机器学习可使产品更高效、更安全、功耗更低。Microchip独特的集成解决方案专为嵌入式工程师设计,是首款不仅支持32位MCU和MPU,还支持8位和16位器件的解决方案,可实现高效的产品开发。”
机器学习通过使用一套算法,从大型数据集中分析和生成模式,以支持决策。与人工处理相比,机器学习通常更快、更容易更新和更准确。Microchip客户可以利用这套新工具,启用预测性维护解决方案,以准确预测各种工业、制造、消费和汽车应用中所用设备的潜在问题。
MPLAB 机器学习开发工具包可帮助工程师构建高效、小尺寸的机器学习模型。在 AutoML 的支持下,该款工具包消除了许多重复、繁琐和耗时的模型构建任务,包括提取、训练、验证和测试。它还提供了模型优化功能,以满足MCU和MPU的内存限制要求。
当与 MPLAB X 集成开发环境 (IDE)结合使用时,新工具包可提供一个完整的解决方案,几乎没有任何机器学习编程知识的人员也能轻松实施,从而节省了聘请数据科学家的成本。同时,它也具备先进功能,能满足经验丰富的机器学习设计人员的需求。
Microchip还提供从TensorFlow Lite中提取模型并将其用于任何MPLAB Harmony v3项目的选项。MPLAB Harmony v3是完全集成的嵌入式软件开发框架,提供灵活、可互操作的软件模块,以简化增值功能的开发,缩短产品的上市时间。此外,VectorBlox™ Accelerator 软件开发工具包(SDK)利用 PolarFire® FPGA 提供了基于卷积神经网络 (CNN) 的最节能的人工智能/机器学习(AI/ML)推理功能。
MPLAB 机器学习开发工具包提供了必要的工具,旨在设计和优化运行机器学习推理的边缘产品。请访问Microchip 机器学习解决方案页面,了解更多有关利用Microchip直观的机器学习工具简化开发流程、降低成本并加快产品上市时间的信息。
供货与定价
价格因许可情况而异。MPLAB 机器学习开发工具包有免费版本可供评估。如需了解更多信息或购买,请访问Microchip直销网站www.microchipdirect.com或与您当地的Microchip销售代表联系。
资源
可通过Flickr或联系编辑获得高分辨率图片(欢迎自由发布):Flickr link
Microchip Technology Inc. 简介
Microchip Technology Inc.是致力于智能、互联和安全的嵌入式控制解决方案的领先供应商。其易于使用的开发工具和丰富的产品组合让客户能够创建最佳设计,从而在降低风险的同时减少系统总成本,缩短上市时间。Microchip的解决方案为工业、汽车、消费、航天和国防、通信以及计算市场中12万5千家客户提供服务。Microchip总部位于美国亚利桑那州Chandler市,提供出色的技术支持、可靠的产品交付和卓越的质量。详情请访问公司网站www.microchip.com。
好文章,需要你的鼓励
Insta360推出GO 3S复古套装,将现代4K运动相机与胶片时代美学结合。套装核心仍是仅重39克的GO 3S,新增复古取景器、胶片风格滤镜、NFC定制外壳及可延长录制时长至76分钟的电池组。复古取景器模仿老式腰平相机设计,鼓励用户放慢节奏、专注构图。相机内置11种色彩预设及负片、正片等滤镜,同时保留FlowState防抖、4K拍摄及10米防水能力,面向热衷复古影像风格的年轻创作者。
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
谷歌近期悄然调整账户存储政策:新注册用户若未绑定手机号,免费存储空间将从原来的15GB缩减至5GB。用户需验证手机号后,方可获得完整的15GB空间,用于Gmail、Drive和Photos的共享使用。谷歌表示,此举旨在确保存储空间"每人仅限一份",有效防止滥用。有分析认为,存储硬件成本上升也是推动此次政策调整的重要原因之一。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。