作者:微信文章
▼点击下方名片,关注公众号,获取更多精彩内容▼前几天小编写了2篇文章“为什么AI会改变单片机的未来?”单片机上如何运行AI?单片机如何“学会思考”之TinyML崛起!(含案例,建议收藏),引起了非常多的留言、关注和加群讨论。但是,仍然有读者朋友给小编留言,能否整理一些关于比较常用芯片比如STM32实用AI大模型的案例。为了满足粉丝朋友的诉求,小编整理了“在STM32单片机上运行AI大模型的”真实案例。从粉丝的一个问题引出本文的思考:AI 模型能跑在 STM32 上吗?一:先说结论先说结论:不仅能跑,还一共有四种方案。方案一:STM32官方提供的 STM32Cube.AI(X-CUBE-AI)其实原理是我们把在 PC 上训练好的神经网络自动转换成可在 MCU 上运行的 C 库;然后在自己的软件/代码工程中调用已经编译产生的C库。
方案二:直接用 TensorFlow Lite Micro(TFLM)+ CMSIS-NN 在 STM32 上做端侧推理。
TensorFlow是由谷歌开发并开源的一个机器学习库,它支持模型训练和模型推理。这里提到的TFLM,全称是TensorFlow Lite for Microcontrollers,翻译过来就是“针对微控制器的TensorFlow Lite”。
它适用于微控制器和其他一些仅有数千字节内存的设备。
可以直接在“裸机”上运行,不需要操作系统支持、任何标准 C/C++ 库和动态内存分配。核心运行时在 Cortex M3 上运行时仅需16KB,加上足以用来运行语音关键字检测模型的操作,也只需 22KB 的空间。
方案三:NanoEdge AI Studio
对于“异常检测/分类/回归”这类小模型,还可以用 NanoEdge AI Studio 生成适配 STM32 的库。
Nanoedge AI Studio是用于STM32部署边缘AI的软件,Studio可生成四种类型的库:异常检测、单分类、多分类、预测。它支持所有类型的传感器,所生成的库不需要任何云连接,可以直接在本地学习与部署,支持STM32所有MCU系列。方案四:STM32N6 + NPUSTM32N6 这代芯片把 NPU(Neural-ART)直接塞进 MCU,峰值可达百亿次级别运算,面向更重的视觉/音频任务——这等于把“在 STM32 上跑 AI”从“小巧求稳”,推进到“更大模型也能实时”。
二:四种方案的对比?该怎么选择?
路线
适用任务
优点
注意点
STM32Cube.AI(X-CUBE-AI)
小到中等 CNN/MLP、KWS、人形检测、回归/分类
图形化/命令行一体,自动把模型转成优化的 C 代码;新版本支持 ONNX 量化网络与在线开发/板农场验证