手写数字识别(KNN算法)

一、预备知识

图像灰度化

1.图像灰度化简单来说就是让图像像素点矩阵中的每一个像素点都满足下面的关系R=G=B(这3个值相等),此时的这个值叫作灰度值。这样每个像素点的颜色不需要用3个值来表示、只需用一个灰度值表示就可以了,这不仅能大大减少计算量,而且能保留相息。PI库提供了图像切片、旋转、差值、滤波和写文字等许多功能。PIL库在Python3.x中已是标准库,可以通过以下命令安装。

复制代码
pip3 install pillow

2.以数字8为例,将图片8进行图像灰度化

python 复制代码
from PIL import Image
img=Image.open(r'c:/workcode/data3/8.jpeg')
#img=img.resize((80,80),Image.ANTIALIAS)
img=img.resize((80,80),Image.LANCZOS)
img=img.convert('L')
img.show()
img.save(r'c:/workcode/data3/8.png')

二、将数字图像信息转化为TXT文件

1.导入相关的库

2.定义转换函数 imgtotext

本函数首先将含有数字的图像进行缩放和灰度化处理,然后对图像逐行扫描,按每个像素点的像素灰度值大小将其转换成0或者1,转换规则如下。

(1)大于等于128:转换成0(表示白色)。

(2)小于128:转换成1(表示黑色)。

最后将转换后的字符串数据写人 TXT 文件,完成函数的转换操作。源代码如下

3.调用函数生成TXT文件

python 复制代码
#导入相关的库
import os
from PIL import Image
#定义转换函数
def imgtotext(imgfile,txtfile,size=(32,32)):
#imgfile 待识别图像,txtfile 将图像转换为txt 文件输出,size 图像大小,默认 32*32
    image_file = Image.open(imgfile)
    image_file =image_file.resize(size,Image.LANCZOS)
    image_file=image_file.convert('L')
    width,height=image_file.size
    f =open(txtfile,'w')
    ascii_char='10'
    for i in range (height):
        pix_char='';
        for j in range(width):
            pixel=image_file.getpixel((j,i))
            pix_char+=ascii_char[int(pixel/128)]
        pix_char+='\n'
        f.write(pix_char)
    f.close()
#调用函数生成TXT文件,将图片转换成文本信息
imgtotext(r'c:/workcode/data3/8.png',r'c:/workcode/data3/8_0.txt')

三、批量生成样本数据,构建训练KNN模型并评估模型效果

总代码

python 复制代码
import numpy as np
import os
import matplotlib.pyplot as plt
from sklearn.neighbors import  KNeighborsClassifier
import pandas as pd
from sklearn.metrics import classification_report
from sklearn.metrics import confusion_matrix
#定义函数,将文本数据转换成数字形式的数组
def txt2array(filename):
    X=np.zeros((1,1024))
    f = open(filename)#
    for i in range(32):
        lineStr =f.readline()
        for j in range(32):
            X[0,32*i+j]= int(lineStr[j])
    return X
#将文件夹下所的文件转换成数组和对应的标签
def convert2dataset(file_path):
    list_file=os.listdir(file_path)
    m=len(list_file)
    datas=np.zeros((m,1024))
    labels=[]
    for i in range (m):
        num=int(list_file[i][0])
        labels.append(num)
        datas[i,:]=txt2array(file_path+'\\'+list_file[i])
        print(datas)
    return datas,labels
                            
x_train,y_train=convert2dataset(r'c:/workcode/data3/trainingDigits')
x_test,y_test=convert2dataset(r'c:/workcode/data3/testDigits')


knn= KNeighborsClassifier(n_neighbors=3,weights='distance' ,p=2)

knn.fit(x_train,y_train)
knn.score(x_train,y_train)


y_pred=knn.predict(x_test)
print(classification_report(y_test,y_pred))

i=y_test.index(8)
for j in range(1):
     if(y_test[j+i]!=y_pred[j+i]):
          print('{}[{}]->{}'.format(y_test[j+i],j,y_pred[j+i]))


y_test=np.array(y_test)
confusion_matrix(y_test,y_pred)
pd.crosstab(y_test,y_pred,rownames=['真实值'],colnames=['预测值'],margins=True)

1.定义一个样本的数据转换函数

定义函数 txt2array,将一个 TXT 文件数据转换成数值类型的数组

ini 复制代码
def txt2array(filename):
    X=np.zeros((1,1024))
    f = open(filename)#
    for i in range(32):
        lineStr =f.readline()
        for j in range(32):
            X[0,32*i+j]= int(lineStr[j])
    return X

2.生成所有样本的特征值和标签值

ini 复制代码
def convert2dataset(file_path):
    list_file=os.listdir(file_path)
    m=len(list_file)
    datas=np.zeros((m,1024))
    labels=[]
    for i in range (m):
        num=int(list_file[i][0])
        labels.append(num)
        datas[i,:]=txt2array(file_path+'\\'+list_file[i])
        print(datas)
    return datas,labels

所有的训练样本数据和测试样本数据分别保存在tainingDigits、testDigits 文件夹下因此需要定义一个函数convert2dataset,将文件夹下所有的TXT 文件转换成样本的特征值及对应的标签值。

3.生成训练样本数据和测试样本数据

python 复制代码
x_train,y_train=convert2dataset(r'c:/workcode/data3/trainingDigits')
x_test,y_test=convert2dataset(r'c:/workcode/data3/testDigits')

4.构建KNN模型

(1)导入KNN类

javascript 复制代码
from sklearn.neighbors import  KNeighborsClassifier

(2)构建分类模型

ini 复制代码
knn= KNeighborsClassifier(n_neighbors=3,weights='distance' ,p=2)

5.训练KNN模型

(1)用训练集x_train、y_train来训练模型

scss 复制代码
knn.fit(x_train,y_train)

(2)对训练后的模型进行评估

scss 复制代码
knn.score(x_train,y_train)

6.评估模型效果 (1)测试模型性能

scss 复制代码
from sklearn.metrics import classification_report
y_pred=knn.predict(x_test)
print(classification_report(y_test,y_pred))

i=y_test.index(8)
for j in range(1):
     if(y_test[j+i]!=y_pred[j+i]):
          print('{}[{}]->{}'.format(y_test[j+i],j,y_pred[j+i]))

(2)通过交叉表了解模型的错分情况

ini 复制代码
from sklearn.metrics import confusion_matrix

y_test=np.array(y_test)
confusion_matrix(y_test,y_pred)
pd.crosstab(y_test,y_pred,rownames=['真实值'],colnames=['预测值'],margins=True)
相关推荐
墨染天姬2 小时前
【AI】端侧AIBOX可以部署哪些智能体
人工智能
AI成长日志2 小时前
【Agentic RL】1.1 什么是Agentic RL:从传统RL到智能体学习
人工智能·学习·算法
2501_948114242 小时前
2026年大模型API聚合平台技术评测:企业级接入层的治理演进与星链4SAPI架构观察
大数据·人工智能·gpt·架构·claude
小小工匠2 小时前
LLM - awesome-design-md 从 DESIGN.md 到“可对话的设计系统”:用纯文本驱动 AI 生成一致 UI 的新范式
人工智能·ui
黎阳之光2 小时前
黎阳之光:视频孪生领跑者,铸就中国数字科技全球竞争力
大数据·人工智能·算法·安全·数字孪生
小超同学你好2 小时前
面向 LLM 的程序设计 6:Tool Calling 的完整生命周期——从定义、决策、执行到观测回注
人工智能·语言模型
智星云算力3 小时前
本地GPU与租用GPU混合部署:混合算力架构搭建指南
人工智能·架构·gpu算力·智星云·gpu租用
jinanwuhuaguo3 小时前
截止到4月8日,OpenClaw 2026年4月更新深度解读剖析:从“能力回归”到“信任内建”的范式跃迁
android·开发语言·人工智能·深度学习·kotlin
xiaozhazha_3 小时前
效率提升80%:2026年AI CRM与ERP深度集成的架构设计与实现
人工智能
枫叶林FYL3 小时前
【自然语言处理 NLP】7.2.2 安全性评估与Constitutional AI
人工智能·自然语言处理