机器学习入门(六)异常检测

如下图所示,不同于假设的数据,在现实中我们获取到的数据集一定会存在某些异常的数据点。

如果异常的数据点太多或者影响太大,则会显著降低我们模型的性能。这时,我们可以使用异常检测的方法来找出数据集中的异常点。

例如在线采集而来的有关用户的数据,一个特征向量中可能会包含如:用户多久登录一次,访问过的页面,在论坛发布的帖子数量,甚至是打字速度等。尝试根据这些特征构建一个模型,可以用这个模型来识别那些不符合该模式的用户。

异常检测(Anomaly Detection)

异常检测是指根据输入数据,对不符合预期模式的数据进行识别。

如上图所示,在红色圈内的数据属于该组数据的可能性较高,而越是偏远的数据,其属于该 组数据的可能性就越低。这时我们就可以通过 <math xmlns="http://www.w3.org/1998/Math/MathML"> 𝑝 ( 𝑥 ) < 𝜀 𝑝(𝑥) < 𝜀 </math>p(x)<𝜀 检测非正常用户。这种方法被称为密度估计法。

如何实现异常检测

异常检测检测有很多检测算法,我们这里使用 sklearn 中的 EllipticEnvelope 来实现。它被用于检测高斯分布数据集中异常值的对象。

ini 复制代码
# 建立模型
from sklearn.covariance import EllipticEnvelope
ad_model = EllipticEnvelope(contamination=0.02)
ad_model.fit(data)
# 预测异常点
y_predict = ad_model.predict(data)
# 可视化结果
fig4 = plt.figure(figsize=(10, 10))
original_data = plt.scatter(data.loc[:, 'x1'], data.loc[:, 'x2'], marker='x')
anomaly_data = plt.scatter(data.loc[:, 'x1'][y_predict == -1], 
            data.loc[:, 'x2'][y_predict == -1], 
            marker='o',
            facecolor='none',
            edgecolor='red',
            s = 150)
plt.title('anomaly detection result')
plt.xlabel('x1')
plt.ylabel('x2')
plt.legend((original_data, anomaly_data), ('original_data', 'anomaly_data'))
plt.show()

效果如下图所示:

异常检测与监督学习对比

从上面的描述可以看到,异常检测类似于二分任务,它需要找出错误和异常的数据。那么我们能不能直接采用监督学习的逻辑回归来实现异常检测呢?

但实际上是很难按照这样的做法来实现的!因为正类的样本实际上我们很容易收集到,但是负类的样本可以说很难收集,或者说负类样本是无穷无尽的,没有办法让机器学习到每一种负类样本的特征

另外一个问题是异常的例子通常很难被收集到,例如网络的异常访问或者异常的交易数据等等,都是在大量的正常数据中才能够找到一个异常数据,因此这也是很严重的问题。

参考

相关推荐
小墙程序员13 分钟前
机器学习入门(八)模型评价与优化
机器学习
信息快讯24 分钟前
【机器学习驱动的智能化电池管理技术与应用】
人工智能·机器学习
硅谷秋水4 小时前
π0.5:带开放世界泛化的视觉-语言-动作模型
人工智能·机器学习·计算机视觉·语言模型
搏博4 小时前
机器学习之三:归纳学习
人工智能·深度学习·学习·机器学习
小墙程序员7 小时前
机器学习入门(七)PCA
机器学习
伊织code7 小时前
SKLearn - Biclustering
机器学习·支持向量机·聚类·sklearn·biclustering
搏博7 小时前
专家系统的基本概念解析——基于《人工智能原理与方法》的深度拓展
人工智能·python·深度学习·算法·机器学习·概率论
yzx9910137 小时前
决策树随机深林
人工智能·python·算法·决策树·机器学习
winner88817 小时前
论文解读:迁移学习(A Survey on Transfer Learning)
人工智能·机器学习·迁移学习