数据挖掘-关联规则学习-Apriori算法原理

数据挖掘-关联规则学习-Apriori算法原理

引言:

比如你女朋友,低头玩手指+沉默,那大概率生气了,那这就是你总结出来的规则。啤酒与尿布的例子相信很多人都听说过吧,故事是这样的:在一家超市中,人们发现了一个特别有趣的现象,尿布与啤酒这两种风马牛不相及的商品居然摆在一起,但这一奇怪的举措居然使尿布和啤酒的销量大幅增加了。为什么有这么奇怪现象呢?是因为美国妇女在丈夫回家前买尿布,然后丈夫顺手买了自己喜欢的啤酒,所以发生了这么有趣的事情。

很多人只记住了啤酒尿不湿,很少深入思考,我们稍微转换下,日常的事情,也存在非常多的关联规则?
此段引言来自这个链接

一、关联分析是什么?

关联分析亦称为关联规则学习。

关联分析就是从大规模数据 中,发现对象之间隐含关系与规律的过程。

通常,关联关系 表现为某些物品在一起出现的频率大小

二、基本概念

1. 项

项,指的是数据集中的一个对象

苹果,可以称之为项。

汽车,可以称之为项。

1(数字一),可以称之为项。

2. 项集

项集就是若干项构成的集合。

{苹果},可以称之为项集。{苹果,香蕉},可以称之为项集。{1,2,3},可以称之为项集。

关联规则有三个核心概念需要理解:支持度、置信度、提升度

3. 支持度

支持度为某项集在数据集中出现的频率。即项集在数据集中出现的次数除以数据集中所有记录的数量.
s u p p o r t ( A ) = c o u n t ( A ) c o u n t ( D a t a B a s e ) = P ( A ) support(A)=\frac{count(A)}{count(DataBase)}=P(A) support(A)=count(DataBase)count(A)=P(A)

也就是说,支持度指某个 " 物品 " 集合在所有集合中出现的概率

支持度体现的是某项集的频繁程度,只有某项集的支持度达到一定程度,我们才有研究分析该项集的必要。

4. 置信度

关联规则{ A -> B }中,置信度为A与B同时出现的次数,除以A出现的次数。
C o n f i d e n c e ( A − > B ) = c o u n t ( A B ) c o u n t ( A ) = c o u n t ( A B ) c o u n t ( D a t a B a s e ) c o u n t ( A ) c o u n t ( D a t a B a s e ) = P ( A B ) P ( A ) = P ( B ∣ A ) Confidence( A -> B )=\frac{count(AB)}{count(A)} =\frac{\frac{count(AB)}{count(DataBase)}}{\frac{count(A)}{count(DataBase)}}=\frac{P(AB)}{P(A)}=P(B|A) Confidence(A−>B)=count(A)count(AB)=count(DataBase)count(A)count(DataBase)count(AB)=P(A)P(AB)=P(B∣A)

也就是说,"置信度指在包含某个物品集合的交易中,同时包含另一个物品集合的概率 "。

置信度体现的是关联规则的可靠程度,如果关联规则的{ A -> B }的置信度较高,则说明当A发生时,B有很大概率也会发生,这样就有可能带来研究价值。

5. 提升度

关联规则{ A -> B }中,提升度为{ A -> B }的置信度除以B的支持度。
l i f t ( A − > B ) = C o n d i d e n c e ( A − > B ) s u p p o r t ( B ) = P ( B ∣ A ) P ( B ) = P ( A B ) P ( A ) P ( B ) lift( A -> B )=\frac{Condidence( A->B )}{support(B)}=\frac{P(B|A)}{P(B)}=\frac{P(AB)}{P(A)P(B)} lift(A−>B)=support(B)Condidence(A−>B)=P(B)P(B∣A)=P(A)P(B)P(AB)

也就是说,"提升度是在知道 A 的条件下,同时包含 B 的概率与预期同时包含 B 的概率之比 "

提升度体现的是组合(应用关联规则)相对于不组合(不应用关联规则)的比值。
如果提升度大于1,则说明应用该关联规则是有价值的。
如果提升度小于1,则说明应用该关联规则起到了反方向的影响。

考虑到大部分的应用场景,应该尽可能让关联规则的提升度大于1,提升度越大,则应用该关联规则的效果越好。

6. 频繁项集

通常情况下,我们只会对频繁出现的项集进行研究。

因此,我们会设置一个支持度阈值,如果一个项集的支持度达到(大于等于)该阈值,则该项集就成为频繁项集。

特别的,如果频繁项集中含有 k 个项,我们称之为频繁 k 项集。

三、关联分析过程

  1. 从数据集中寻找频繁项集
  2. 从频繁项集中生成关联规则

寻找频繁项集,我们当然可以利用暴力搜索的方式,逐个寻找不同种组合的是否为频繁项集。

我们可以计算一下暴力搜索的次数,一项集、二项集、三项集等等,直至N项集。
C N 0 + C N 1 + C N 2 + . . . + C N N = 2 N C_{N}^{0}+C_{N}^{1}+C_{N}^{2}+ ... +C_{N}^{N}=2^{N} CN0+CN1+CN2+...+CNN=2N

当然,0项集在分析中是没有意义的。

故, C N 1 + C N 2 + . . . + C N N = 2 N − 1 C_{N}^{1}+C_{N}^{2}+ ... +C_{N}^{N}=2^{N}-1 CN1+CN2+...+CNN=2N−1

在大数据的背景下, 2 N − 1 2^{N}-1 2N−1会消耗大量的计算资源。

因此,暴力搜索的方法,理论可行,实际不可用

那么,是否存在一种方法能够减少计算,优化效率?

四、Apriori算法原理

为了降低运算量,使用Apriori算法进行优化。

算法有两个性质:

  • 如果一个项集是频繁项集,则其所有子集(非空)也是频繁项集。
  • 如果一个项集(非空)是非频繁项集,则其所有超集也是非频繁项集。

证明:

频繁项集的区分以支持度为标准,即频率(概率),记为 P P P。运算过程满足概率论的基本原理。
P ( A ) ≥ P ( A B ) ≥ 支持度阈值 P(A)≥P(AB)≥支持度阈值 P(A)≥P(AB)≥支持度阈值

频繁项集{ A,B}的支持度大于阈值,项集{A}的支持度当然大于阈值,因此项集{A}也为频繁项集。

同理,

项集{C}为非频繁项集,其支持度 P ( C ) P(C) P(C)小于阈值。
P ( C D ) ≤ P ( C ) ≤ 支持度阈值 P(CD)≤P(C)≤支持度阈值 P(CD)≤P(C)≤支持度阈值

非频繁项集{ C }的支持度小于阈值,项集{CD}的支持度当然小于阈值,因此项集{CD}也为非频繁项集。

算法流程:

  1. 扫描数据集,从数据集中生成候选k项集 C k C_k Ck(k从1开始)。
  2. 计算 C k C_k Ck中,每一个项集的支持度,删除低于阈值的项集,构成频繁项集 L k L_k Lk。
  3. 将频繁项集 L k L_k Lk中的元素进行组合,生成候选k+1项集 C k + 1 C_{k+1} Ck+1。
  4. 重复步骤②③,直到满足以下两个条件之一时,算法结束。
    • 频繁k项集无法组合合成候选k+1项集。
    • 所有候选k项集支持度都低于指定的阈值(最小支持度),无法生成频繁k+1项集。

五、程序实现

可以使用Python中的efficient-apriori库帮助我们快速实现上述算法。

python 复制代码
apriori(transactions: typing.Iterable[typing.Union[set, tuple, list]], 
        min_support: float=0.5, 
        min_confidence: float=0.5, 
        max_length: int=8, 
        verbosity: int=0, 
        output_transaction_ids: bool=False)
上面就是这个函数的参数
min_support:最小支持度
min_confidence:最小置信度
max_length:项集长度
python 复制代码
#包安装 我们使用efficient-apriori,python中也可以利用apyori库和mlxtend库
pip install efficient-apriori

#加载包
from efficient_apriori import apriori

# 构造数据集
data = [('牛奶','面包','尿不湿','啤酒','榴莲'),
        ('可乐','面包','尿不湿','啤酒','牛仔裤'),
        ('牛奶','尿不湿','啤酒','鸡蛋','咖啡'),
        ('面包','牛奶','尿不湿','啤酒','睡衣'),
        ('面包','牛奶','尿不湿','可乐','鸡翅')]
#挖掘频繁项集和频繁规则
itemsets, rules = apriori(data, min_support=0.6,  min_confidence=1)
#频繁项集
print(itemsets)

itemsets[1] #满足条件的一元组合

itemsets[2]#满足条件的二元组合

itemsets[3]#满足条件的三元组合

#频繁规则
print(rules)
#我们把max_length=2这个参数加进去看看
itemsets, rules = apriori(data, min_support=0.6,
min_confidence=0.5,
max_length=2)
#频繁项集
print(itemsets)
相关推荐
fanstuck27 分钟前
Prompt提示工程上手指南(六):AI避免“幻觉”(Hallucination)策略下的Prompt
人工智能·语言模型·自然语言处理·nlp·prompt
纪元A梦1 小时前
贪心算法应用:配送路径优化问题详解
算法·贪心算法
zhangfeng11331 小时前
win7 R 4.4.0和RStudio1.25的版本兼容性以及系统区域设置有关 导致Plots绘图面板被禁用,但是单独页面显示
开发语言·人工智能·r语言·生物信息
C_player_0011 小时前
——贪心算法——
c++·算法·贪心算法
DogDaoDao1 小时前
神经网络稀疏化设计构架方法和原理深度解析
人工智能·pytorch·深度学习·神经网络·大模型·剪枝·网络稀疏
西猫雷婶2 小时前
pytorch基本运算-Python控制流梯度运算
人工智能·pytorch·python·深度学习·神经网络·机器学习
说私域2 小时前
新零售第一阶段传统零售商的困境突破与二次增长路径:基于定制开发开源AI智能名片S2B2C商城小程序的实践探索
人工智能·开源·零售
kyle~3 小时前
排序---插入排序(Insertion Sort)
c语言·数据结构·c++·算法·排序算法
Boop_wu3 小时前
[数据结构] 队列 (Queue)
java·jvm·算法
寒月霜华3 小时前
机器学习-模型验证
人工智能·深度学习·机器学习