机器学习和数据挖掘02-Gaussian Naive Bayes

概念

贝叶斯定理:

贝叶斯定理是概率中的基本定理,描述了如何根据更多证据或信息更新假设的概率。在分类的上下文中,它用于计算给定特征集的类别的后验概率。

特征独立性假设:

高斯朴素贝叶斯中的"朴素"假设是,给定类别标签,特征之间是相互独立的。这个简化假设在现实场景中通常并不完全准确,但它简化了计算过程,在实践中仍然可以表现良好。

高斯分布:

高斯朴素贝叶斯假设每个类别中的连续特征遵循高斯(正态)分布。这意味着在给定类别的情况下,特征的似然性被建模为一个由均值和标准差确定的正态分布。

参数估计:

要使用高斯朴素贝叶斯算法,需要为每个类别估计参数。对于每个类别中的每个特征,你需要基于训练数据估计均值和标准差。

分类:

对于具有特征值的新数据点,算法使用贝叶斯定理计算每个类别的后验概率。具有最高后验概率的类别被预测为数据点的最终类别标签。

公式


代码实现

python 复制代码
from sklearn.datasets import load_iris
from sklearn.naive_bayes import GaussianNB
from sklearn.model_selection import cross_val_score, StratifiedKFold
import numpy as np

# Load example dataset (you can replace this with your own data)
data = load_iris()
X = data.data
y = data.target

# Create a Gaussian Naive Bayes model
gnb_model = GaussianNB()

# Create a StratifiedKFold cross-validation object
cvKFold = StratifiedKFold(n_splits=10, shuffle=True, random_state=0)

# Perform cross-validation using cross_val_score
scores = cross_val_score(gnb_model, X, y, cv=cvKFold)

# Print the cross-validation scores
print("Cross-validation scores:", scores)
print("Mean CV score:", np.mean(scores))
相关推荐
这张生成的图像能检测吗2 分钟前
(论文速读)MoE-Adapters++: 过动态混合专家适配器实现更有效的视觉语言模型的持续学习
人工智能·自然语言处理·视觉语言模型·持续学习
数字冰雹4 分钟前
数字孪生如何重塑数据中心运维新范式
大数据·人工智能
阿杰同学5 分钟前
Hadoop 面试题及答案整理,最新面试题
大数据·hadoop·分布式
handuoduo12347 分钟前
SITAN中avp必要性分析
人工智能·算法·机器学习
zl_vslam8 分钟前
SLAM中的非线性优-3D图优化之相对位姿Between Factor右扰动(八)
人工智能·算法·计算机视觉·3d
TextIn智能文档云平台10 分钟前
从散乱资料到智能知识库:基于TextIn与Coze的RAG实战
人工智能·pdf·知识库·rag·coze·文档解析
C嘎嘎嵌入式开发11 分钟前
deepseek-r1大模型的本地部署
人工智能·python·神经网络·机器学习
翔云 OCR API20 分钟前
赋能文档的数字化智能处理:通用文字/文档/合同识别接口
开发语言·人工智能·python·计算机视觉·ocr
_codemonster22 分钟前
AI大模型入门到实战系列(五)上下文嵌入向量(contextualized embedding)
人工智能·深度学习·embedding
.又是新的一天.26 分钟前
AI+软件测试04(AI应用技巧)
软件测试·人工智能·ai+软件测试