前言:
本项目主要是代替昂贵的实名认证服务api或者sdk,目前仍然存在很多缺点
一、具体介绍
1.组成:
人脸识别服务器分为两部分:
(1)、http服务端
server.py共有四个函数:
**DrawFaceinIdCard:**用户上传身份证图片后,服务端会对身份证进行抠人像和ocr处理,如果顺利会返回编号(实际就是文件名),实际也可以返回ocr内容(注释了)。
**DrawFaceinPic:**用户上传自己照片,服务端会把人像给获取出来若顺利会返回编号
**Recognition:**用户上传图片身份证处理和人像处理后的图片编号,后端会进行判定,若顺利会返回200
**detecting/Create:**用户通过formbody传递uuid,后端会自动生成四个动作,保存到数据库中
(2).websocket服务端
没啥好说的,实现实人识别,比较简单的python实现的websocketserver,用户连接服务器需要带uuid,和base64编码后的图片,图片最好小于200k,若用户发送的图像文件符合要求,会返回200(完成其中一个动作)或201(完全完成)。
(3).客户端:
目前仅实现了,启动时候先请求detecting/Create接口,使用安卓:通过camera api1调用相机硬件,每两秒通过websocket上传一次图片,并且通过服务器的知识反馈
2.原理:
**整体原理:**通过用户上传的身份证获取头像,并且通过活体识别最后一个动作获得用户头像(暂未实现),对这两个头像进行比较。
**活体识别:**要求用户做出三个脸部动作,判定其是真人。
3.技术:
- 人脸图像处理:dlib
- 语音:pyttsx3
- 服务端:websocket,fastapi
- 图片处理:ptl
- 图片编码:base64
- OCR:PaddleOcr
- 客户端网络请求/websocket客户端:okhttp
二.未来可能出现的适配:
1.更多脸部适配:
目前仅支持眼睛(睁眼和闭眼),嘴巴(张嘴和闭嘴)的活动,未来可能会引入更多脸部活动,例如微笑、挑眉毛等其他脸部活动判定。
2.多图片验证:
发现因为传输角度的问题存在传输失误的问题,后续可能改成一次上传多张图片。例如三张图,至少有两张达到标准
3.多服务器适配(V2就会实现):
由于用到图像处理、tts技术,对于服务器压力肯定是非常吃的,未来估计会将websocket端支持多服务器,通过http服务获取"不忙碌"的websocket地址,在进行连接