过去的几十年,单片机/嵌入式的设备都是【人类智慧+指令执行】的组合。工程师设计出来运行逻辑,设备按照逻辑运行。定时器,ADC,PWM、状态机等等这些词组成了整个单片机/嵌入式世界的基石。
但是这两年chaGPT的出现,让更多的人认识到了AI,AI也在影响着我们嵌入式工程师的世界和格局。我们应该去思考思考,单片机应该如何变得"会判断""会学习""会自适应"。换句话说:我们怎么让"AI"在单片机中可以运行起来?
一、从"命令执行"到"智能决策"
在传统的控制逻辑中,我们写出了明确运行逻辑:温度》30℃就开风扇,电流>2A就断电。这样的控制模式像是一位严格执行命令的士兵,只会听取命令并安全的执行,但没脑子,不会思考。(在AI的世界里,不会思考的MCU,就相当于是没有脑子了。)
AI 带来的变化在于:控制逻辑变得"模糊化"。设备不再只看一个阈值,而是从大量传感器数据中"理解"状态。例如,风扇不只考虑温度,还会结合湿度、风速、噪声等信号,通过模型判断用户是否真正感到"热"。
小编了解到一种适合单片机的AI的技术,TinyML(小型机器学习)------在资源受限的 MCU 上部署轻量模型,让设备能"离线"推理。一个 20KB 的模型,就能让传感器具备模式识别能力。举个真实的例子:
在农业灌溉系统中,以前靠湿度阈值控制电磁阀,现在通过AI模型预测"未来3小时土壤含水变化",提前调度泵站。误触发减少40%,能耗下降15%。
这样的改进不是"多写几行代码"能做到的,而是让设备长脑孑了。
二、硬件与算法的"共设计"时代
现在咱们嵌入式工程师更多关注电路,接口、性能。但要是运行本地模型的话,除了思考硬件设计外,埂需要思考算法设计。
举个例子,我打算做一个语音唤醒设备。过去只要加上麦克风,ADC,DMA、再配个FFT算法就够。但如果你要跑一个神经网络模型(如Keyword Spotting),事情就完全不一样:
-
我们需要评估 MCU 的乘加性能(MAC),看能不能在100ms内完成推理。
-
要关注RAM占用,因为模型可能吃掉一半内存。
-
甚至在PCB设计时就得为AI加速单元(NPU、DSP)预留空间。(下面文章小编会带大家学习一下什么是NPU)
上面已经被去了一个Niub并高大上的名字,叫【硬件-算法共设计(Co-Design)】
AI算法不再是软件层的附属,而成为硬件选型的前提。必须现在的一些老牌芯片厂商,也都在为AI改造自己的MCU,比如:
ST 的 STM32H7 系列集成 DSP 与浮点单元;
ESP32-S3 加入向量指令;
国产的 Kendryte K210 直接集成 KPU(卷积加速单元)。
当硬件开始理解算法,算法也要为硬件让路。这是嵌入式工程师的新能力门槛------不只懂寄存器,还得懂模型结构。
三、(斗胆预测)未来三年:AI 在单片机中的落地清单
AI 在 MCU 上落地,应该不会太遥远。小编大胆预测未来 3 年最容易实现的几个方向:
-
语音识别与唤醒:家电控制、车载助手、智能工具。
-
异常检测:电机振动、泵站噪声、管网压力异常。
-
姿态与动作识别:穿戴设备、无人机、机器人末端控制。
-
图像/光学检测:产品瑕疵检测、色彩分析、简单OCR。
-
预测性维护:AI 通过电流/温度趋势提前预警故障。
这些应用有个共同点------都不需要云计算。AI模型直接在端侧执行,响应快、功耗低、无需联网。AI 不再是"高大上的云端技术",而是嵌入式设备的日常部件。
一句话总结:AI 让单片机从"执行命令"变成"主动思考"。