环境配好了先整摄像头标定。我直接用手机摄像头当输入源,这里有个骚操作:用旧手机改造成AR专用摄像头,比外接USB摄像头方便多了。标定棋盘图建议自己打印A4尺寸的,网上下的图片容易有畸变。标定代码其实就十几行:
特征点检测这块试过ORB、SIFT、SURF三种算法。实测发现ORB速度最快但容易丢跟踪,SURF已经专利过期可以放心用,SIFT准确率最高但吃配置。如果是实时AR推荐用ORB+光流法组合拳,我项目里用的就是这个方案:
3D注册才是真坑王。刚开始直接硬刚EPnP算法,结果姿态估计抖得像帕金森。后来改用在Open3D里做点云配准,先用ICP粗配准再用BA优化,帧率虽然降到30fps但稳定性直线上升。这里有个小技巧:在场景里预设几个QR码作为锚点,能极大改善初始定位。
模型渲染试了三种方案:PyOpenGL直接写shader、Ursina引擎、最后用的Vispy。因为要实时渲染带纹理的OBJ模型,Vispy的gloo接口最顺手。关键代码长这样:
交互部分做了个手势识别,用MediaPipe提取手部关节点然后计算手指夹角。最实用的是捏合手势触发模型旋转,张开手掌重置视角。后来客户非要加语音控制,又集成了SpeechRecognition库,没想到Python的语音识别延迟居然能控制在200ms内。
性能优化这块踩坑最多。最初用单线程,摄像头采集、AR计算、渲染全挤在一起,卡成PPT。后来改成双线程+队列通信,主线程负责渲染,子线程处理AR计算,帧率直接从12fps飙到45fps。还有个邪门bug:OpenCV的V4L2驱动在某些USB3.0接口上会丢帧,换到USB2.0接口反而稳定了。
现在回头看,Python做AR原型开发其实挺香。虽然比不上专业引擎的效果,但从想法验证到出Demo的速度绝对碾压其他方案。最近在尝试集成MLKit做平面检测,准备下次分享时聊聊怎么在Python里跑TensorFlow Lite模型。有同样在折腾AR的老铁欢迎交流,我github上放了测试代码和数据集。