朴素贝叶斯方法

一般来说训练时的一个实例有很多属性用一个<a1,a2,....,an>来表示一个数据,那么此时根据最大后验概率的计算公式可以得出:

其中, H 是目标值集合。 估计每个 P(hi)很容易, 只要计算每个目标值 hi出现在训练数据

中的频率就可以。 但是如果要如此估计所有的 P( a1 ,a2 ,...,an hi)项, 则必须计算 a1 ,a2 ,...,an的所有可能取值组合, 再乘以可能的目标值数量。 假设一个实例有 10 个属性, 每个属性有3 个可能取值, 而目标集合中有 5 个候选目标, 那么 P(a1 ,a2 ,...,an hi)项就有 5×3^10个之多。对于现实系统这样显然不行。 因为, 首先我们很难得到一个容量足够大的样本; 其次即使样本足够多, 进行统计的时间复杂度也是无法忍受的。 所以, 贝叶斯最优假设 (包括贝叶斯最优分类器) 不适合于高维数据。

所以提出了朴素贝叶斯和贝叶斯网络来解决高维数据问题。下面介绍朴素贝叶斯方法。

朴素贝叶斯方法假设如下:对于目标值, 数据各属性之间是相互条件独立的, 即 a1 ,a2 ,...,an的联合概率等于每个单独属性的概率乘积。

即朴素贝叶斯方法公式为:

将计算数据缩小到了5x3x10。当各个属性条件独立性满足时,朴素贝叶斯分类结果等于最大后验概率分类结果。

相关推荐
Han.miracle2 分钟前
优选算法-004 盛最多水的容器
数据结构·算法
Knight_AL4 分钟前
布隆过滤器参数深度解析:如何根据误判率计算位数组大小与哈希函数数量
算法·哈希算法
Hello娃的10 分钟前
【神经网络】构成单元、网络结构、训练过程
深度学习·神经网络·机器学习
BoBoZz1914 分钟前
ExtractLargestIsosurface 提取最大连通域
python·vtk·图形渲染·图形处理
赵得C18 分钟前
软件设计师前沿考点精讲:新兴技术与性能优化实战
java·开发语言·分布式·算法·设计模式·性能优化
爱笑的眼睛1123 分钟前
从零构建与深度优化:PyTorch训练循环的工程化实践
java·人工智能·python·ai
古城小栈23 分钟前
Spring Boot 4.0 虚拟线程启用配置与性能测试全解析
spring boot·后端·python
liliangcsdn24 分钟前
如何使用pytorch模拟Pearson loss训练模型
人工智能·pytorch·python
小白程序员成长日记26 分钟前
2025.12.09 力扣每日一题
数据结构·算法·leetcode
Bear on Toilet29 分钟前
18 . 杨辉三角
算法·leetcode·职场和发展