眼神交流+触摸感应,打造更贴心的小智AI:原理和实现

前文,分享了【小智Pro】系列文章:

30天,AI 陪我写了3万行代码,上线一款应用,3点血泪教训

零门槛为小智接入MCP,小智Pro焕新上线:MCP广场+自定义服务

得益于 ESP32 的强大,小智 AI 的生态不断壮大,接入的开发板琳琅满目:

除了语音对话,还能干点啥?

这正是小智Pro一直在探索的。

除了闹钟、音乐、知识库、记忆、天气实用价值

还应该提供情绪价值

前两天,朋友寄来了一块开发板 - zhengchen-eye

相比其它开发板,有两大特点:

  • 两块圆形串联LCD屏,可显示 gif 动图
  • 两块触摸板,可感知触摸强度

这两天,设备端调试成功,已加到小智Pro支持列表中,先看效果:

demo展示

今日分享,和大家聊聊:这两个功能的基本原理具体实现

1. 眼神交流

视频中的眨眼动作,本质上是写到设备中的 gif 动图

因此,只需要设备端,为zhengchen-eye,自定义一份display即可。

下面上实操。

1.1 代码结构设计

xiaozhi-esp32display 模块,采用面向对象的继承体系设计,清晰、可扩展。

核心是通过抽象基类,定义通用接口,然后根据不同类型的显示设备进行具体实现,层次结构如下:

复制代码
Display (抽象基类)
└── LvglDisplay (基于LVGL库的通用显示实现)
    ├── LcdDisplay (LCD显示屏通用实现)
    │   ├── SpiLcdDisplay (SPI接口LCD显示屏)
    │   ├── RgbLcdDisplay (RGB接口LCD显示屏)
    │   └── MipiLcdDisplay (MIPI接口LCD显示屏)
    ├── OledDisplay (OLED显示屏实现)
    └── EmoteDisplay (基于EMOTE引擎的表情显示实现,esp-box-3用到)

zhengchen-eye接入的是 LCD 屏,只需继承LcdDisplay,进行定制化开发即可:

复制代码
LcdDisplay (LCD显示屏通用实现)
└── ZhengchenEyeLcdDisplay (针对zhengchen-eye开发板的定制实现)

因为是特定板子的定制代码,我们放到 boards/目录下:

复制代码
./zhengchen-eye
├── zhengchen_eye_lcd_display.cc
└── zhengchen_eye_lcd_display.h

1.2 基类代码详解

Display(display.h)是整个显示系统的抽象基类,定义了所有显示设备都应该具备的基本功能接口,比如:

  • 状态显示 (SetStatus)
  • 通知显示 (ShowNotification)
  • 表情显示 (SetEmotion)
  • 聊天消息显示 (SetChatMessage)
  • 状态栏更新 (UpdateStatusBar)

LvglDisplayDisplay 的子类,实现了基于 LVGL 图形库的具体显示功能:

  • 基于 LVGL 的 UI 元素管理
  • 通知、状态栏等通用 UI 组件

LcdDisplayLvglDisplay 的基础上,针对 LCD 显示屏,增加了更多相关功能:

  • LCD 面板初始化和配置
  • LVGL 与 LCD 硬件的对接
  • GIF 动画支持

1.3 自定义显示

display 模块初始化时,会调用 SetupUI 来实现基于 LVGL 的 UI 元素管理。

不过,基类中的 SetupUI 不是虚方法。

在不改变通用代码的情况下,我们重写SetupUI 函数,新增显示标签gif_label_

复制代码
void ZhengchenEyeLcdDisplay::SetupUI() {
    ESP_LOGI(TAG, "Starting UI setup");
    DisplayLockGuard lock(this);
    /* overlay */
    overlay_container = lv_obj_create(container_);
    lv_obj_add_flag(overlay_container, LV_OBJ_FLAG_HIDDEN); // 默认隐藏   
    
    gif_label_ = lv_gif_create(overlay_container);
    lv_gif_set_src(gif_label_, &happy);
}

然后,在板子初始化时,调用一次:

复制代码
display_ = new ZhengchenEyeLcdDisplay(panel_io, panel,
            DISPLAY_WIDTH, DISPLAY_HEIGHT, DISPLAY_OFFSET_X, DISPLAY_OFFSET_Y, DISPLAY_MIRROR_X, DISPLAY_MIRROR_Y, DISPLAY_SWAP_XY);
display_->SetupUI();    

接下来,如何显示不同的 gif 表情包

重写 SetEmotion 函数!

主程序会调用 SetEmotion 来显示不同的 emoji,因此,只需把 emoji 改成 gif 就 OK 了。

下面用注释给大家解释下具体实现逻辑:

复制代码
void ZhengchenEyeLcdDisplay::SetEmotion(const char* emotion) {
  // idle状态且 neutral 情绪 - 隐藏表情层,显示正常界面
  // 否则显示表情层
  // 根据emoji查找匹配的表情
}

效果如下:

2. 触摸感应

2.1 工作原理

ESP32 内置电容式触摸传感器,基于电容变化,实现触摸检测:

  • 电容构成: 每个触摸引脚与地之间存在寄生电容。
  • 触摸效应: 当手指靠近或触摸电极时,人体作为额外的电容,总电容值就会增大

因此,看电容值大小,不就知道是否触摸了?

看效果:

未触摸状态:电容保持在 3w-

触摸:电容增大到 13w+

松手:电容减少到 2w+

2.2 功能实现

ESP32 官方文档中,触摸传感器共有 10 个 IO 口。

zhengchen-eye这块板子用了两个:

复制代码
void touch_init() {
        touch_pad_init();
        touch_pad_config(TOUCH_PAD_NUM4); // 配置 GPIO4 为触摸引脚
        touch_pad_config(TOUCH_PAD_NUM5); // 配置 GPIO5 为触摸引脚
    }

然后,我们新增一个定时任务,实现触摸数据读取:

复制代码
static void touch_read_task(void* arg) {
        zhengchen_eye* self = static_cast<zhengchen_eye*>(arg);
        while (1) {
            touch_pad_read_raw_data(TOUCH_PAD_NUM4, &self->touch_value);
            touch_pad_read_raw_data(TOUCH_PAD_NUM5, &self->touch_value1);
            ESP_LOGI(TAG, "Touch pad 4: %d, pad 5: %d", self->touch_value, self->touch_value1);
            vTaskDelay(2000 / portTICK_PERIOD_MS);
        }
    }

问题来了,小智 怎么知道我有没有触摸呢?

2.3 两大使用场景

换句话说,这个触摸感应到底可以用在什么场景?

笔者认为,至少可以有两大使用场景

一是, 小智 在和用户互动时,通过 MCP 发起主动问询!

放在设备端即可:

当然,为了避免 小智 偷懒,让它每轮对话发起主动调用,更新提示词如下:

二是, 定时任务中加个判断,发生触摸动作时,主动上传到服务端,服务端每日统计触摸值,可作为 AI 和用户的 亲密度 属性。

当然,还有更多使用场景,欢迎大开脑洞,评论区聊~

写在最后

本文分享了小智AI: 眼神交流+触摸感应的基本原理和具体实现。

如果对你有帮助,不妨点赞收藏备用。

固件已做好,放到 小智Pro 官方文档,免费自取👇:

https://ai.feishu.cn/wiki/IfTawES0mi0YTqk8GQ4cw4qOnD3

有任何想法,欢迎来聊👇:

相关推荐
露临霜2 小时前
重启机器学习
人工智能·机器学习
IT·小灰灰3 小时前
告别“翻墙“烦恼:DMXAPI让Gemini-3-pro-thinking调用快如闪电
网络·人工智能·python·深度学习·云计算
gwd2003 小时前
如何快速设置 Docker 代理设置
运维·人工智能·docker·容器
DatGuy3 小时前
Week 29: 深度学习补遗:MoE的稳定性机制与路由策略实现
人工智能·深度学习
mys55183 小时前
杨建允:AI搜索趋势对留学服务行业的影响
人工智能·geo·ai搜索优化·geo优化·ai引擎优化
Curvatureflight3 小时前
前端性能优化实战:从3秒到300ms的加载速度提升
前端·人工智能·性能优化
新智元3 小时前
仅 4 人 28 天!OpenAI 首曝 Sora 内幕:85% 代码竟由 AI 完成
人工智能·openai
受之以蒙4 小时前
Rust 与 dora-rs:吃透核心概念,手把手打造跨语言的机器人实时数据流应用
人工智能·笔记·rust
前端开发工程师请求出战4 小时前
把大模型装进口袋:HuggingFace如何让AI民主化成为现实
人工智能