答题卡识别
1.项目背景
今天我们来看一下怎么样来进行一个答题卡自动识别的功能。
首先我们来看一下答题卡长什么样子,大家参加各项考试应该都很熟悉了,我们要把自己的答案涂写在对应选项中,如下图所示
我们可以看到这里一共有5个选项,然后填充了其中一个选项,以第一题为例,此时我们涂写了b,它就是实心的,那么它和A、C、D、E就不太一样了,因此首先我们要做的就是利用图像学的一些方法将其识别出来;识别出来之后我们跟正确答案进行对比;最后我们再进行一个评分功能,对每个选项进行识别,判断正确率及其得分。
在整个过程中,最核心的是识别出填写的答案
要实现这个目的,我们需要进行下列一些工作,图像滤波操作、边缘检测、透视变换、二值处理、掩码等等之前介绍过的图像学知识,最后判断每道题选择的答案,然后我们再去对比正确答案来进行自动评分。
我们来看一下结果示例:其中黑色圈出来的是标准答案。
下面我们来看具体代码细节
2.预处理
首先我们定义后续相关要用到的函数,这些函数在具体用到时会详细解读:
2.1 定义相关参数和函数
python
import numpy as np
import imutils
import cv2
# 正确答案
ANSWER_KEY = {0: 1, 1: 4, 2: 0, 3: 3, 4: 1}
# 展示图像
def cv_show(name,img):
cv2.imshow(name, img)
cv2.waitKey(0)
cv2.destroyAllWindows()
2.2 高斯滤波和边缘检测
代码如下:
python
# 图片读取与复制
image = cv2.imread(path)
contours_img = image.copy()
# 灰度图
gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
# 高斯滤波
blurred = cv2.GaussianBlur(gray, (5, 5), 0)
cv_show('blurred',blurred)
# 边缘检测
edged = cv2.Canny(blurred, 75, 200)
cv_show('edged',edged)
上述代码要实现的功能:
首先我们将图片读取进来,然后将图形copy来进行后续操作
- 第一步,然后将图像转换成灰度图
- 第二步,高斯滤波,去除周围噪音点,得到结果如下
- 第三步,边缘检测,这里我们直接使用
canny边缘检测
,处理比较简单,我们直接看结果如下
从图中可以看到此时我们基本得到了图片的边界,接下来我们要对这个图片进行一个透视变换,使得其显示的方方正正。因此首先我们要得到它最外围的轮廓,因此接下来我们需要做一个轮廓检测
2.3 轮廓检测
代码如下:
python
# 轮廓检测
cnts = cv2.findContours(edged.copy(), cv2.RETR_EXTERNAL,
cv2.CHAIN_APPROX_SIMPLE)[1] # 轮廓检测三个返回值,只提取轮廓值
cv2.drawContours(contours_img,cnts,-1,(0,0,255),3) #绘制轮廓
cv_show('contours_img',contours_img)
docCnt = None
此时红色框框就是得到的最外围的轮廓,但是其仍然不是方方正正的,因此我们需要进行转换,首先我们要得到4个坐标,接下来对轮廓面积进行排序,然后遍历对轮廓进行近似,得到一个多边形,当多边形长度为4,就结束遍历
python
if len(cnts) > 0:
# 根据轮廓大小进行排序
cnts = sorted(cnts, key=cv2.contourArea, reverse=True)
# 遍历每一个轮廓
for c in cnts:
# 近似
peri = cv2.arcLength(c, True)
approx = cv2.approxPolyDP(c, 0.02 * peri, True)
# 准备做透视变换
if len(approx) == 4:
docCnt = approx
break
接下来要做我们之前介绍的透视变换
2.4 透视变换
- 首先我们要拿到原始的四个坐标点,
- 然后分别算,得到变换后的坐标
- 计算变换矩阵M
- 根据变换矩阵M,此时输入一张图像,可以直接得到变换后的图像
具体代码如下
python
# 执行透视变换
# 获取坐标点
def order_points(pts):
# 一共4个坐标点
rect = np.zeros((4, 2), dtype = "float32")
# 按顺序找到对应坐标0123分别是 左上,右上,右下,左下
# 计算左上,右下
s = pts.sum(axis = 1)
rect[0] = pts[np.argmin(s)]
rect[2] = pts[np.argmax(s)]
# 计算右上和左下
diff = np.diff(pts, axis = 1)
rect[1] = pts[np.argmin(diff)]
rect[3] = pts[np.argmax(diff)]
return rect
# 坐标转换
def four_point_transform(image, pts):
# 获取输入坐标点
rect = order_points(pts)
(tl, tr, br, bl) = rect
# 计算输入的w和h值
widthA = np.sqrt(((br[0] - bl[0]) ** 2) + ((br[1] - bl[1]) ** 2))
widthB = np.sqrt(((tr[0] - tl[0]) ** 2) + ((tr[1] - tl[1]) ** 2))
maxWidth = max(int(widthA), int(widthB))
heightA = np.sqrt(((tr[0] - br[0]) ** 2) + ((tr[1] - br[1]) ** 2))
heightB = np.sqrt(((tl[0] - bl[0]) ** 2) + ((tl[1] - bl[1]) ** 2))
maxHeight = max(int(heightA), int(heightB))
# 变换后对应坐标位置
dst = np.array([
[0, 0],
[maxWidth - 1, 0],
[maxWidth - 1, maxHeight - 1],
[0, maxHeight - 1]], dtype = "float32")
# 计算变换矩阵
M = cv2.getPerspectiveTransform(rect, dst)
warped = cv2.warpPerspective(image, M, (maxWidth, maxHeight))
# 返回变换后结果
return warped
warped = four_point_transform(gray, docCnt.reshape(4, 2))
cv_show('warped',warped)
可以看到经过透视变换之后的结果变得非常规整。现在我们预处理工作基本完成
3. 答案识别
接下来我们要检测这些答案,一般我们是用铅笔填充,其他地方空出来了,此时相当于有两种主体,一种是没被填充的,一种是填充的,因此在这里我们可以进行一个二值处理,
3.1 二值处理
在这里我们使用Otsu's
阈值处理,让其自适应确定阈值
python
# Otsu's 阈值处理
thresh = cv2.threshold(warped, 0, 255,
cv2.THRESH_BINARY_INV | cv2.THRESH_OTSU)[1]
cv_show('thresh',thresh)
thresh_Contours = thresh.copy()
可以看到,此时填充答案的地方是特别亮的,接下来我们要让计算机去识别出这些答案。
3.2 圆圈轮廓检测
因为在涂答题卡的时候有的时候绘图到外面去,因此我们还需要再进行一个轮廓检测,来找到每个圆圈的轮廓结果
ini
# 找到每一个圆圈轮廓
cnts = cv2.findContours(thresh.copy(), cv2.RETR_EXTERNAL,
cv2.CHAIN_APPROX_SIMPLE)[1]
cv2.drawContours(thresh_Contours,cnts,-1,(0,0,255),3)
cv_show('thresh_Contours',thresh_Contours)
questionCnts = []
接下来我们在得到轮廓的一个外接矩形,以适应涂取误差。
3.3 判断结果
python
# 遍历得到外接矩形
for c in cnts:
# 计算比例和大小
(x, y, w, h) = cv2.boundingRect(c)
ar = w / float(h)
# 根据实际情况指定标准
if w >= 20 and h >= 20 and ar >= 0.9 and ar <= 1.1:
questionCnts.append(c
# 对检测结果进行排序
def sort_contours(cnts, method="left-to-right"):
reverse = False
i = 0
if method == "right-to-left" or method == "bottom-to-top":
reverse = True
if method == "top-to-bottom" or method == "bottom-to-top":
i = 1
boundingBoxes = [cv2.boundingRect(c) for c in cnts]
(cnts, boundingBoxes) = zip(*sorted(zip(cnts, boundingBoxes),
key=lambda b: b[1][i], reverse=reverse))
return cnts, boundingBoxes
# 按照从上到下进行排序
questionCnts = sort_contours(questionCnts,
method="top-to-bottom")[0]
correct = 0
# 每排有5个选项
for (q, i) in enumerate(np.arange(0, len(questionCnts), 5)):
# 排序
cnts = sort_contours(questionCnts[i:i + 5])[0]
bubbled = None
# 遍历每一个结果
for (j, c) in enumerate(cnts):
# 使用mask来判断结果,每一行进行比较
mask = np.zeros(thresh.shape, dtype="uint8")
cv2.drawContours(mask, [c], -1, 255, -1) #-1表示填充
cv_show('mask',mask)
# 通过计算非零点数量来算是否选择这个答案
mask = cv2.bitwise_and(thresh, thresh, mask=mask)
total = cv2.countNonZero(mask)
# 通过阈值判断
if bubbled is None or total > bubbled[0]:
bubbled = (total, j)
# 对比正确答案
color = (0, 0, 255)
k = ANSWER_KEY[q]
# 判断正确
if k == bubbled[1]:
color = (0, 255, 0)
correct += 1
# 绘图
# cv2.drawContours(warped, [cnts[k]], -1, color, 3)
3.4 评分结果
有了上述结果,我们现在统计评分情况如下
python
score = (correct / 5.0) * 100
print("score: {:.2f}%".format(score))
cv2.putText(warped, "{:.2f}%".format(score), (10, 30),
cv2.FONT_HERSHEY_SIMPLEX, 0.9, (0, 0, 255), 2)
#cv2.imshow("Original", image)
cv2.imshow("Exam", warped)
cv2.waitKey(0)
cv2.destroyAllWindows()
可以看到第一份正确率为80%
- 第二分评分结果:
- 第三份评分结果: