机器学习-朴素贝叶斯

朴素贝叶斯

    • [一 基本概念](#一 基本概念)
    • [二 API使用](#二 API使用)
    • [三 优缺点](#三 优缺点)
    • [四 经典案例](#四 经典案例)
      • [4.1 案例1 情感分类](#4.1 案例1 情感分类)
      • [4.2 案例2 垃圾邮件分类](#4.2 案例2 垃圾邮件分类)

今天和大家聊一个机器学习算法-朴素贝叶斯,它的基于概率统计思想的一种机器学习算法常用于分类任务。

一 基本概念

先验概率:基于统计的概率,根据以往历史经验和分析得到的结果,不需要依赖当前发生的条件。

后验概率:从条件概率而来,由因推果,基于当下发生的事件计算之后的概率,依赖于当前发生的条件。

条件概率:记事件A发生的概率为P(A),事件B发生的概率为P(B),则B时间发生的前提下,A事件发生的概率为P(A|B)。

贝叶斯公式就是基于条件概率通过P(B|A)来求解P(A|B):

而朴素贝叶斯就是假设事件(特征)之间没有联系,给定训练数据集,其中每个样本x都包括n维特征,也就是x={x1,x2,x3,...,xn},有k种类别即y={y1,y2,y3,...,yk},对于给定的样本,判断属于什么标记的类别,根据贝叶斯定理可以获得P(yk|x)

而朴素贝叶斯对条件概率分布做出了独立性的假设,所以每个特征相互独立,此时条件概率可以转化为:

将此式带入到上述的贝叶斯公式中得出:

二 API使用

python 复制代码
# 导包:
from sklearn.naive_bayes import MultinomialNB

# 调用:
alpha:拉普拉斯平滑系数
MultinomialNB(alpha = 1.0)

三 优缺点

优点:

  • 朴素贝叶斯模型有稳定的分类效率。
  • 对小规模的数据表现很好,能处理多分类任务,适合增量式训练,尤其是数据量超出内存时,可以一批批的去增量训练。
  • 对缺失数据不太敏感,算法也比较简单,常用于文本分类。

缺点:

  • 需要知道先验概率,且先验概率很多时候取决于假设,假设的模型可以有很多种,因此在某些时候会由于假设的先验模型的原因导致预测效果不佳。
  • 对输入数据的表达形式很敏感(离散、连续,值极大极小之类的)。

四 经典案例

4.1 案例1 情感分类

计算机中情感简单理解就是积极&消极 好评&差评 等等.并非人类的复杂情感。

本案例主要是使用朴素贝叶斯实现评价分类。

python 复制代码
# 导包
import jieba
import numpy as np
from sklearn.feature_extraction.text import CountVectorizer # 词频向量(做特征工程 提取特征)
from sklearn.naive_bayes import MultinomialNB # 多项分布朴素贝叶斯
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score
import joblib
import pandas as pd
import matplotlib.pyplot as plt
import seaborn as sns

def load_data():
    # 1.加载数据
    data = pd.read_csv('data/书籍评价.csv',encoding='gbk')  # 存在中文采用gbk编码
    # print(data.head())
    # 2.数据预处理
    # 2.1 处理数据y
    data['评论标号'] = np.where(data['评价']=='好评',1,0) # '好评'=>1,'差评'=>0
    y = data['评论标号']
    # 2.2 加载停用词
    stopwords =[]
    # 读取停用词文档
    with open('data/stopwords.txt','r',encoding='utf-8') as f:
        lines = f.readlines()  # 读取所有行储存在lines
        stopwords = [line.strip() for line in lines] # line.strip() 去除前后空格\换行符等放到停用词列表中
        # print(stopwords)
        stopwords = list(set(stopwords)) # 通过集合去重保存到停用词列表中
    # print(stopwords)
    # 2.3处理数据(评论内容)把文档分词
    comment_list = [','.join(jieba.lcut(line)) for line in data['内容']]
    # 2.4特征工程
    transfer = CountVectorizer(stop_words=stopwords) # 创建向量化对象
    x = transfer.fit_transform(comment_list) 
    # print(x)
    mynames = transfer.get_feature_names_out()  # 获取特征名称
    x = x.toarray() 
    # print(x.shape) 
    # print(x)
    # 3.准备训练集和测试集
    x_train = x[:10,:] # 训练集前10条数据
    y_train = y.values[0:10] # 训练集前10条数据对应的标签
    x_test = x[10:,:] # 测试集后3条数据
    y_test = y.values[10:] # 测试集后3条数据对应的标签
    # print(x_train.shape)
    # print(y_train.shape)
    # 4.模型训练
    # 4.1实例化贝叶斯模型
    myMultinomialNB = MultinomialNB()
    myMultinomialNB.fit(x_train,y_train)
    # 4.2 模型预测
    y_predict = myMultinomialNB.predict(x_test)
    print('预测结果:',y_predict) # 预测结果: [0 0 0]
    print('真实结果:',y_test) # 真实结果: [0 0 0]
    # 5.模型评估
    print(myMultinomialNB.score(x_test,y_test)) # 1.0



if __name__ == '__main__':
    load_data()

4.2 案例2 垃圾邮件分类

  • 数据集介绍

邮件数据存放在 trec06c 目录下,该目录下有 data、delay、full 三个子目录,其中 full 目录下的 index 文件中存储了所有邮件的路径,每一个路径为一个垃圾邮件。

数据集链接: https://plg.uwaterloo.ca/cgi-bin/cgiwrap/gvcormac/foo06

  • 项目介绍

通过朴素贝叶斯实现垃圾邮件分类

  • 温馨提示

本案例介绍了文本数据清洗过程与整个模型搭建步骤非常实用,小伙伴可以多关注项目实现思路部分。主要文件如下:


项目准备动作

python 复制代码
# 0.导包
import pandas as pd
import os
import codecs
import re
import zhconv # 繁体转简体
import jieba
import jieba.posseg as psg  # 词性标注
from sklearn.feature_extraction.text import CountVectorizer  # 词频向量(做特征工程 提取特征)
from sklearn.model_selection import train_test_split
import pickle
import time
from tqdm import tqdm  # 进度条

# 将当前目录设置为工作目录
# __file__ 表示当前文件路径
os.chdir(os.path.dirname(os.path.abspath(__file__)))

# 设置结巴不输出日志
jieba.setLogLevel(jieba.logging.INFO)

# 1.数据转换(目的:把所有邮件放到一个csv文件中)
def load_email_data():

    # 读取邮件目录
    # 创建两个空列表 分别存储邮件名和邮件标签
    filenames, labels = [], []
    with open('trec06c/full/index') as file:
        # 按行读取文件
        for line in file:
           # 用于移除字符串两端的指定字符,默认情况下移除的是空白字符(包括空格、制表符 \t、换行符 \n 等)不传参是移除两端空白字符
           # 不传入任何参数,split() 会将字符串按任意空白字符(包括空格、制表符 \t、换行符 \n 等)进行分割 可以指定分隔符 如 逗号','
            label, path = line.strip().split()
           # 存储邮件标签和邮件路径
            labels.append(label)
            filenames.append(path)

    # 读取邮件内容
    os.chdir('trec06c/full')
    contents = []
    # filename每个路径
    for filename in filenames:
        # 打开文件
        with open(filename, encoding='gbk', errors='ignore') as file:
            # 读取每个路径中的邮件内容
            content = file.read()
            # 所有邮件内容放到列表中
            contents.append(content)

    # 数据集分割
    x_train, x_test, y_train, y_test = \
        train_test_split(contents, labels, test_size=0.2, stratify=labels, random_state=42)


    # 存储到 csv 文件中
    # __file__ 当前文件
    # abspath(__file__)获取当前目录的绝对路径
    # .dirname 上级路径名称
    # .chdir切换路径
    os.chdir(os.path.dirname(os.path.abspath(__file__)))

    # 创建训练集DF对象
    train_data = pd.DataFrame()
    # 添加特征和标签列
    train_data['emails'] = x_train
    train_data['labels'] = y_train
    train_data.to_csv('data/01-原始邮件数据-训练集.csv')

    test_data = pd.DataFrame()
    test_data['emails'] = x_test
    test_data['labels'] = y_test
    test_data.to_csv('data/01-原始邮件数据-测试集.csv')

# 2.数据清洗
def clean_data(email):
    # 去除非中文字符
    # 参1 为正则表达式规则 参2 替换为空字符串 参3 为要正则化的对象
    email = re.sub(r'[^\u4e00-\u9fa5]', '', email)
    # 繁体转简体
    email = zhconv.convert(email,'zh-cn')
    # 邮件词性删选
    # 数据类型格式 我: n 爱: v
    email_pos = psg.cut(email)
    # 词性类别表 名词 动词 形容词 人名 地名 组织名
    allow_pos = ['n','v','a','nr','ns','nt']
    email = []
    for word,pos in email_pos:
        # 词性符合给定的词性 把邮件内容放入email列表
        if pos in allow_pos:
            email.append(word)
    # 转成str类型 用空格把分好的词拼接起来
    # 储存邮件内容
    email = ' '.join(email)
    return email

# 清洗数据集并储存
def clean_email_data():

    train_data = pd.read_csv('data/01-原始邮件数据-训练集.csv')

    emails, labels = [], []
    # progress 定义进度条
    # tqdm 进度条模块
    # len(train_data) 邮件数量
    progress = tqdm(range(len(train_data)), desc='清洗进度')
    for email, label in zip(train_data['emails'], train_data['labels']):
        # 清洗语料 调用上面clean_data() 把邮件内容进行清洗
        email = clean_data(email)
        # 长度为0的数据剔除
        if len(email) == 0:
            continue
        # 缓存清洗的标签和邮件内容结果
        labels.append(label)
        emails.append(email)

        # 更新进度
        progress.update()

    # 存储到 csv 文件中
    train_data = pd.DataFrame()
    # 使用清洗后的数据修改train_data特征和标签列
    train_data['emails'] = emails
    train_data['labels'] = labels
    # 储存到 csv 文件中
    train_data.to_csv('data/02-清洗后的数据-训练集.csv')

# 3.邮件特征提取
# 只对训练集做特征工程 并转换成词频向量
def extract_email_feature():
    train_data = pd.read_csv('data/02-清洗后的数据-训练集.csv')
    # 提取特征
    # CountVectorizer 统计词频 生成词频矩阵 同时将文本数据转换为词频向量
    # max_features=10000 限制词汇表中最多包含 10000 个最频繁出现的词 以此作为特征
    transfer = CountVectorizer(max_features=10000)
    emails = transfer.fit_transform(train_data['emails'])

    # 将转换完的训练数据存储
    train_data_dict = {}
    train_data_dict['emails'] = emails.toarray().tolist()
    train_data_dict['labels'] = train_data['labels'].tolist()
    # 使用pickle保存数据 wb 表示保存成二进制文件 3表示压缩级别 (高级的)
    pickle.dump(train_data_dict, open('data/03-训练数据.pkl', 'wb'),3)

    # 将提取到的特征进行存储
    # 提取特征名
    feature_names = transfer.get_feature_names_out()
    print(f'查看特征数量:{len(feature_names)}') # 查看特征数量:10000
    pickle.dump(feature_names,open('data/03-模型训练特征.pkl', 'wb'),3)

if __name__ == '__main__':
    # 1.数据转换调用(目的:把所有邮件放到一个csv文件中)
    # load_email_data()
    # 2.数据清洗
    # clean_email_data()
    # 3.邮件特征提取
    extract_email_feature()

模型训练

python 复制代码
# 0. 导包
from sklearn.naive_bayes import MultinomialNB
import pickle
import joblib

if __name__ == '__main__':
    # 1.加在训练数据
    train_data = pickle.load(open('data/03-训练数据.pkl','rb'))
    # 2.实例化模型
    model = MultinomialNB()
    # 3.训练模型
    model.fit(train_data['emails'],train_data['labels'])
    # 4.保存模型
    joblib.dump(model,'data/04-邮件分类模型.pth')

模型预测和评估

python 复制代码
# 0.导包
import pickle
import pandas as pd
import joblib
import os
import re
import zhconv
import jieba
from sklearn.feature_extraction.text import CountVectorizer
from sklearn.metrics import precision_score
from sklearn.metrics import recall_score
from sklearn.metrics import accuracy_score
import jieba.posseg as psg

# 将当前目录设置为工作目录
os.chdir(os.path.dirname(os.path.abspath(__file__)))

# 1.编写清洗函数
def clean_data(email):
    # 去除非中文字符
    email = re.sub(r'[^\u4e00-\u9fa5]', '', email)
    # 繁体转简体
    email = zhconv.convert(email,'zh-cn')
    # 邮件词性删选
    # 数据类型格式 我: n 爱: v
    email_pos = psg.cut(email)
    # 词性类别表 名词 动词 形容词 人名 地名 组织名
    allow_pos = ['n','v','a','nr','ns','nt']
    email = []
    for word,pos in email_pos:
        # 词性符合给定的词性 把邮件内容放入email列表
        if pos in allow_pos:
            email.append(word)
    # 转成str类型 用空格把分好的词拼接起来
    # 储存邮件内容
    email = ' '.join(email)
    return email

# 2.模型评估
def evaluate():
    # 2.1 加载数据
    test_data = pd.read_csv('data/01-原始邮件数据-测试集.csv')
    # 2.2 构建特征提取器
    # 加载处理好的模型训练特征数据集
    vocab = pickle.load(open('data/03-模型训练特征.pkl', 'rb'))
    # 具体提取特征过程
    # CountVectorizer将文本数据转换为词频向量
    # vocabulary=vocab 指定词汇表 生成是特征只包含表中的 此时使用之前训练好的特征做词汇表
    transfer = CountVectorizer(vocabulary=vocab)

    # 2.3 加载模型
    model = joblib.load('data/04-邮件分类模型.pth')
    # 2.4 测试集评估
    y_pred = []
    for email in test_data['emails'].to_numpy():
        # 2.4.1 清洗数据
        email = clean_data(email)
        # 2.4.2 特征提取
        email = transfer.transform([email]).toarray().tolist()
        # 2.4.3 模型预测
        output = model.predict(email)
        # 2.4.4 预测结果存储
        y_pred.append(output[0])

    # 真实值
    y_true = test_data['labels'].to_list()
    # 获取样本数量
    samples = len(test_data)
    print(f'样本数量:{samples}') # 样本数量:12924
    # 计算准确率
    # 传入预测值和真实值
    accuracy = accuracy_score(y_pred,y_true)
    print(f'准确率:{accuracy:.2f}') # 准确率:0.96
    # 计算精度
    precision = precision_score(y_pred, y_true, pos_label='spam')
    print('precision: %.2f' % precision) # precision: 0.97
    # 召回率
    recall = recall_score(y_pred, y_true, pos_label='spam')
    print('recall: %.2f' % recall) # recall: 0.98

    # 存储评估结果
    eval_result = {
        'sample_num': samples,
        'accuracy': accuracy,
        'precision': precision,
        'recall': recall
    }
    pickle.dump(eval_result, open('data/05-模型评估结果.pkl', 'wb'), 3)

# 3.模型预测
# 模型预测就是我们输入文本邮件内容,由模型给出最终地预测结果:spam 表示垃圾邮件,ham 表示非垃圾邮件.
# 数据是从测试集数据中,随意选两封邮件.
def predict(email):

    # 特征提取器
    vocab = pickle.load(open('data/03-模型训练特征.pkl', 'rb'))
    transfer = CountVectorizer(max_features=10000, vocabulary=vocab)

    # 加载模型
    model = joblib.load('data/04-邮件分类模型.pth')

    # 数据清洗
    # 输入的是原始邮件内容 需要对邮件内容进行清洗 去除非中文 转换为简体 提取词性
    email = clean_data(email)

    # 特征提取
    # CountVectorizer 的 transform 方法期望接收一个可迭代对象(如列表、元组等),其中每个元素是一个文档(即一段文本)
    # 即使只有一个文档需要转换,也需要将其包装在一个列表中,以符合 transform 方法的输入要求
    # 所以这里需要把邮件内容放入列表中
    # CountVectorizer 把输入的文本转成词频向量 得到的是一个稀疏矩阵 在机器学习中期望接收的是密集数组所以.toarray()
    # 又因为列表在数据操作上比较灵活所以.tolist()
    email = transfer.transform([email]).toarray().tolist()

    # 模型模型预测
    # 把从传入的邮件中提取的特征放入模型预测
    output = model.predict(email)
    print(f'特征内容:{email}') # [[0, 1,0,0,1,1...]]
    print(f'预测结果列表:{output}') # 预测结果列表:['spam']
    # 取列表中的第一个元素
    print('最终的预测结果:', output[0])  # 最终地预测结果: spam

if __name__ == '__main__':
    # 1.模型评估
    # evaluate()

    # 2.模型预测
    # 准备测试数据
    email1 = '''软 件 学 报(Ruanjian Xuebao)
第16卷第8期     2005年8月

张再跃,眭跃飞,曹存根.基于模糊命题模态逻辑的形式推理系统(英文).2005,16(8):1359-1365
李娟,李明树,武占春,王青.基于SPEM的CMM软件过程元模型.2005,16(8):1366-1377
曹东刚,梅宏,曹建农.在中间件中支持用户自定义连接子.2005,16(8):1378-1377
颜炯,王戟,陈火旺.基于UML的软件Markov链使用模型构造研究.2005,16(8):1386-1394
刘瑜,高勇,王映辉,邬伦,王立福.基于构件的地理工作流框架:一个方法学的探讨(英文).2005,16(8):1395-1406
游斓,周雅倩,黄萱菁,吴立德.基于最大熵模型的QA系统置信度评分算法.2005,16(8):1407-1414
邓赵红,王士同.鲁棒性的模糊聚类神经网络.2005,16(8):1415-1422
赵连伟,罗四维,赵艳敞,刘蕴辉.高维数据流形的低维嵌入及嵌入维数研究.2005,16(8):1423-1430
陈付幸,王润生.基于预检验的快速随机抽样一致性算法.2005,16(8):1431-1437
杨志华,齐东旭,杨力华,吴立军.基于经验模式分解的汉字字体识别方法.2005,16(8):1438-1444
李丹,吴建平,崔勇,徐恪.互联网名字空间结构及其解析服务研究.2005,16(8):1445-1455
张晋豫,孟洛明,邱雪松,关富英.优化的IP-DiffServ动态资源定价机制.2005,16(8):1456-1464
罗泽,崔辰州,南凯,阎保平.网格环境下银河系化学演化研究(英文).2005,16(8):1465-1473
郑静,卢锡城,王意洁.移动自组网中基于分簇的数据复制算法(英文).2005,16(8):1474-1483
郑彦兴,田菁,窦文华.基于Pareto最优的QoS路由算法.2005,16(8):1484-1489
郭山清,高丛,姚建,谢立.基于改进的随机森林算法的入侵检测模型(英文).2005,16(8):1490-1498
吴琦,熊光泽.非平稳自相似业务下自适应动态功耗管理.2005,16(8):1499-1505
张武生,杨广文,郑纬民.基于类型的运行时环境存储管理算法.2005,16(8):1506-1512
李俊,阳富民,卢炎生.一种可行的容错实时系统可调度性分析.2005,16(8):1513-1522

**************************************************************************
注:此为群发邮件。
如今后不希望再收到类似邮件,请回复此邮件,并在主题中注明:退订
**************************************************************************'''
    email2 = '''Received: from coozo.com ([219.133.254.230])
    by spam-gw.ccert.edu.cn (MIMEDefang) with ESMTP id j8L2Zoqi028766
    for <li@ccert.edu.cn>; Fri, 23 Sep 2005 13:01:45 +0800 (CST)
Message-ID: <200509211035.j8L2Zoqi028766@spam-gw.ccert.edu.cn>
From: "you" <you@coozo.com>
Subject: =?gb2312?B?us/X9w==?=
To: li@ccert.edu.cn
Content-Type: text/plain;charset="GB2312"
Content-Transfer-Encoding: 8bit
Date: Sun, 23 Oct 2005 23:44:32 +0800
X-Priority: 3
X-Mailer: Microsoft Outlook Express 6.00.2800.1106

 您好! 
       我公司有多余的发票可以向外代开!'''
    # 调用预测函数
    predict(email1)
    predict(email2)

以上就是今天和大家分享的朴素贝叶斯实现分类任务的应用场景,喜欢的小伙伴记得关注哦,往期文章也欢迎大家阅读...

相关推荐
B站计算机毕业设计超人1 小时前
计算机毕业设计Spark+SpringBoot旅游推荐系统 旅游景点推荐 旅游可视化 旅游爬虫 景区客流量预测 旅游大数据 大数据毕业设计
spring boot·爬虫·深度学习·机器学习·课程设计·数据可视化·推荐算法
奔跑的犀牛先生1 小时前
【小白学机器学习42】进行多次抽样,样本的分布参数和总体的分布参数的关系
人工智能·机器学习
阿正的梦工坊2 小时前
频率学派(Frequentism)和 贝叶斯学派(Bayesianism):两种概率观的比较与机器学习中的应用 (中英双语)
人工智能·机器学习
数据猎手小k2 小时前
HNTS-MRG 2024 Challenge:是一个包含200个头颈癌病例的磁共振图像及其标注的公开数据集,旨在推动AI在头颈癌放射治疗自动分割领域的研究。
人工智能·数据集·机器学习数据集·ai大模型应用
power-辰南2 小时前
人工智能机器学习算法分类全解析
人工智能·python·算法·机器学习
co0t2 小时前
机器学习(3)朴素贝叶斯算法
人工智能·机器学习·概率论
写代码写到手抽筋3 小时前
机器学习7-AdaBoost算法
人工智能·算法·机器学习
墨绿色的摆渡人3 小时前
用 Python 从零开始创建神经网络(十二):验证数据(Validation Data)
人工智能·python·深度学习·神经网络
zyq~4 小时前
【自学笔记】流形学习
人工智能·笔记·学习·机器学习·信息可视化·流形学习