【OpenCV】手写字符分割

OpenCV 是一个开源的计算机视觉(Computer Vision)与机器学习软件库,提供了多种图像处理算法与接口。在 OCR 技术中,字符分割用于提取图像中的文字信息,可以应用于车牌识别、身份证识别、文档扫描等场景。本文主要记录如何使用 OpenCV 实现手写字符分割。

目录

[1 工作原理](#1 工作原理)

[1.1 图像预处理](#1.1 图像预处理)

[1.2 字符检测](#1.2 字符检测)

[1.3 字符提取](#1.3 字符提取)

[2 程序设计](#2 程序设计)


1 工作原理

手写字符分割的主要目标是将连续的手写文本图像进行分割,得到单字符的图像。这里考虑字符按照水平方向书写的情况,使用 OpenCV 实现手写字符分割,主要包括以下几个步骤:

1)图像预处理:将图像转化为二值图,并进行图像去噪,使字符更容易被识别;

2)字符检测:使用轮廓检测函数,识别可能包含字符的区域;

3)字符提取:找到所有字符区域之后,从每个字符区域中提取字符。

1.1 图像预处理

在手写字符分割中,图像预处理过程包括:灰度图转换、二值化和中值滤波。其中,灰度图转换和二值化处理,使字符与背景区域之间的对比度更大,便于寻找可能的字符区域;中值滤波用于去除图像中的噪点。

使用 cv2.cvtColor() 和 cv2.threshold() 函数实现图像灰度图转换与二值化。

python 复制代码
# 灰度图转换
gray = cv2.cvtColor(src_img, cv2.COLOR_BGR2GRAY)

# 二值化
_, binary = cv2.threshold(gray, 127, 255, cv2.THRESH_BINARY)

使用 cv2.medianBlur() 函数实现中值滤波。

python 复制代码
# 中值滤波
filter_size = 3
binary_f = cv2.medianBlur(binary, filter_size)

1.2 字符检测

图像预处理完成后,就可以使用 cv2.findContours() 函数检测图像的轮廓信息,进一步寻找字符区域。

python 复制代码
# 查找字符区域
contours, _ = cv2.findContours(binary_f, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)

cv2.findContours() 函数会返回多个轮廓信息,考虑到一些特殊字符(例如 %,÷),这些字符存在多个不连接的部分,因此需要合并位置接近的轮廓,得到字符整体区域。

首先遍历所有的轮廓区域,获取最大宽度。然后计算每个区域的中点位置,若两个区域的中点位置距离小于最大宽度的一半,则拼接这两个区域。

python 复制代码
# 遍历所有区域,寻找最大宽度
w_max = 0
for cnt in contours:
   _, _, w, _ = cv2.boundingRect(cnt)
   if w > w_max:
      w_max = w

# 遍历所有区域,拼接x坐标接近的区域
char_dict = {}
for cnt in contours:
   x, y, w, h = cv2.boundingRect(cnt)
   x_mid = x + w//2 # 计算中点位置

   if not char_dict.keys() or all(np.abs(z - x_mid) > w_max//2 for z in char_dict.keys()):
      char_dict[x_mid] = cnt
   else:
      for z in char_dict.keys():
         if np.abs(z - x_mid) <= w_max//2:
            char_dict[z] = np.concatenate((char_dict[z], cnt), axis=0) # 拼接两个区域

1.3 字符提取

字符区域查找完成之后,遍历所有字符区域,使用 cv2.boundingRect() 函数获取端点位置和宽高信息,就可以提取字符了。

python 复制代码
# 遍历所有区域,提取字符
dst_img = []
for _, cnt in char_dict.items():
   x, y, w, h = cv2.boundingRect(cnt)
   roi = binary[y:y+h, x:x+w]
   dst_img.append(roi)

2 程序设计

使用 Gradio 实现交互式界面,中值滤波大小可选 3 × 3, 5 × 5 或 7 × 7。以下是 Python 实现代码:

python 复制代码
#-*- Coding: utf-8 -*-

import cv2
import numpy as np
import gradio as gr

def charSeperate(src_img, filter_size):
   """函数功能:字符分割
      @param src_img
      @param filter_size
      @return dst_img"""
   
   # 灰度图
   gray = cv2.cvtColor(src_img, cv2.COLOR_BGR2GRAY)
   
   # 二值化
   _, binary = cv2.threshold(gray, 127, 255, cv2.THRESH_BINARY)
   binary_inv = cv2.bitwise_not(binary)

   # 中值滤波
   filter_size = int(filter_size[0][0]) if filter_size else 3
   binary_f = cv2.medianBlur(binary_inv, filter_size)

   # 查找字符区域
   contours, _ = cv2.findContours(binary_f, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)

   # 遍历所有区域,寻找最大宽度
   w_max = 0
   for cnt in contours:
      _, _, w, _ = cv2.boundingRect(cnt)
      if w > w_max:
         w_max = w

   # 遍历所有区域,拼接x坐标接近的区域
   char_dict = {}
   for cnt in contours:
      x, y, w, h = cv2.boundingRect(cnt)
      x_mid = x + w//2 # 计算中点位置

      if not char_dict.keys() or all(np.abs(z - x_mid) > w_max//2 for z in char_dict.keys()):
         char_dict[x_mid] = cnt
      else:
         for z in char_dict.keys():
            if np.abs(z - x_mid) <= w_max//2:
               char_dict[z] = np.concatenate((char_dict[z], cnt), axis=0) # 拼接两个区域

   # 按照中点坐标,对字符进行排序
   char_dict = dict(sorted(char_dict.items(), key=lambda item: item[0]))

   # 遍历所有区域,提取字符
   dst_img = []
   for _, cnt in char_dict.items():
      x, y, w, h = cv2.boundingRect(cnt)
      roi = binary[y:y+h, x:x+w]
      dst_img.append(roi)

   return dst_img

if __name__ == "__main__":
   demo = gr.Interface(
      fn=charSeperate,
      inputs=[
         gr.Image(label="input image"), 
         gr.Radio(['3x3', '5x5', '7x7'], value='3x3')
      ],
      outputs=[
         gr.Gallery(label="charset", columns=[3], object_fit="contain", height="auto")
      ],
      live=True
   )

   demo.launch()

以下是代码运行效果:

相关推荐
开始King几秒前
Tensorflow2.0
人工智能·tensorflow
Elastic 中国社区官方博客1 分钟前
Elasticsearch 开放推理 API 增加了对 Google AI Studio 的支持
大数据·数据库·人工智能·elasticsearch·搜索引擎
infominer29 分钟前
RAGFlow 0.12 版本功能导读
人工智能·开源·aigc·ai-native
涩即是Null31 分钟前
如何构建LSTM神经网络模型
人工智能·rnn·深度学习·神经网络·lstm
本本的小橙子34 分钟前
第十四周:机器学习
人工智能·机器学习
励志成为美貌才华为一体的女子1 小时前
《大规模语言模型从理论到实践》第一轮学习--第四章分布式训练
人工智能·分布式·语言模型
学步_技术1 小时前
自动驾驶系列—自动驾驶背后的数据通道:通信总线技术详解与应用场景分析
人工智能·机器学习·自动驾驶·通信总线
winds~1 小时前
自动驾驶-问题笔记-待解决
人工智能·笔记·自动驾驶
学步_技术1 小时前
自动驾驶系列—LDW(车道偏离预警):智能驾驶的安全守护者
人工智能·安全·自动驾驶·ldw
青云交1 小时前
大数据新视界 --大数据大厂之 Kafka 性能优化的进阶之道:应对海量数据的高效传输
大数据·数据库·人工智能·性能优化·kafka·数据压缩·分区策略·磁盘 i/o