机器学习--分类算法

一、分类算法是什么?

简单说 :教会计算机根据已有经验做选择题。
生活例子

  • 判断水果是苹果还是橙子(根据颜色、形状、重量)

  • 预测邮件是正常还是垃圾邮件

  • 诊断患者是否患有某种疾病


二、5大经典分类算法(附比喻)

1. 决策树 ------ 最像人类的决策方式

工作原理 :像玩「20个问题」猜谜游戏,通过一系列问题逐步缩小范围
可视化例子

Python代码

python 复制代码
from sklearn.tree import DecisionTreeClassifier
tree = DecisionTreeClassifier(max_depth=3)
tree.fit(X_train, y_train)

# 可视化决策树
from sklearn.tree import plot_tree
plot_tree(tree, feature_names=feature_names)
复制代码

特点

✅ 可解释性强(能画出决策路径)

⚠️ 容易过拟合(需要设置max_depth等参数)


2. K近邻(KNN) ------ 近朱者赤

核心思想 :看最近的K个邻居属于哪类
生活比喻:搬新家时,参考周围5户人家的装修风格决定自家风格

距离计算(以2个特征为例):

距离=(年龄差)2+(收入差)2距离=(年龄差)2+(收入差)2​

代码实现

python 复制代码
from sklearn.neighbors import KNeighborsClassifier
knn = KNeighborsClassifier(n_neighbors=5)
knn.fit(X_train, y_train)
复制代码

特点

✅ 无需训练过程(惰性学习)

⚠️ 计算成本高(需存储所有数据)


3. 逻辑回归 ------ 概率预测专家

虽然叫回归,实际是分类算法
核心 :用S型函数将线性结果转换为概率
Sigmoid函数

P=11+e−(wx+b)P=1+e−(wx+b)1​

代码实现

python 复制代码
from sklearn.linear_model import LogisticRegression
lr = LogisticRegression()
lr.fit(X_train, y_train)
复制代码

特点

✅ 输出可解释(直接得到概率)

⚠️ 只能处理线性可分数据


4. 支持向量机(SVM) ------ 边界最大化专家

核心思想 :找到最宽的"隔离带"分开两类数据
生活比喻:在两群打架的小朋友之间画最宽的安全线

核技巧:通过变换处理非线性数据

python 复制代码
from sklearn.svm import SVC
svm = SVC(kernel='rbf', C=1.0)  # 高斯核
svm.fit(X_train, y_train)
复制代码

特点

✅ 小样本效果优秀

⚠️ 对缺失数据敏感


5. 随机森林 ------ 集体智慧的胜利

工作原理 :多个决策树投票决定结果
比喻:医生会诊,综合多位专家意见

代码实现

python 复制代码
from sklearn.ensemble import RandomForestClassifier
forest = RandomForestClassifier(n_estimators=100)
forest.fit(X_train, y_train)

特点

✅ 抗过拟合能力强

⚠️ 可解释性降低


三、算法选择指南(新手友好版)

你的数据特点 推荐算法 原因
需要解释为什么这样分类 决策树 可可视化决策路径
数据有明显空间分布规律 KNN 近邻即相似
样本量小(<1万) SVM 高维表现好
需要概率输出 逻辑回归 直接输出概率
追求最高准确率 随机森林 集成方法效果稳定

四、模型评估四件套

  1. 混淆矩阵:看清所有预测对错

    python 复制代码
    from sklearn.metrics import confusion_matrix
    confusion_matrix(y_true, y_pred)
    复制代码
  2. 常用指标

    • 准确率(Accuracy):整体正确率

    • 精确率(Precision):预测为正的准确率

    • 召回率(Recall):实际为正的检出率

    • F1分数:精确率和召回率的调和平均


五、避坑指南

  1. 数据陷阱

    • 类别不平衡时不要只看准确率(比如99%正常邮件,1%垃圾邮件)

    • 解决方法:用F1-score或AUC-ROC

  2. 特征陷阱

    • KNN/SVM必须做特征缩放(如StandardScaler)

    • 决策树不需要缩放

  3. 代码陷阱

    python 复制代码
    # 错误!应该在训练集上fit后transform测试集
    X_scaled = StandardScaler().fit_transform(X_all)  # ❌
    
    # 正确做法
    scaler = StandardScaler().fit(X_train)
    X_test_scaled = scaler.transform(X_test)  # ✅
    复制代码

六、实战建议

  1. 初学者项目

相关推荐
Elastic 中国社区官方博客13 分钟前
使用 A2A 协议和 MCP 在 Elasticsearch 中创建一个 LLM agent 新闻室:第二部分
大数据·数据库·人工智能·elasticsearch·搜索引擎·ai·全文检索
知识浅谈15 分钟前
我用Gemini3pro 造了个手控全息太阳系
人工智能
孤廖17 分钟前
终极薅羊毛指南:CLI工具免费调用MiniMax-M2/GLM-4.6/Kimi-K2-Thinking全流程
人工智能·经验分享·chatgpt·ai作画·云计算·无人机·文心一言
aneasystone本尊18 分钟前
学习 LiteLLM 的日志系统
人工智能
秋邱22 分钟前
价值升维!公益赋能 + 绿色技术 + 终身学习,构建可持续教育 AI 生态
网络·数据库·人工智能·redis·python·学习·docker
Mintopia25 分钟前
🎭 小众语言 AIGC:当 Web 端的低资源语言遇上“穷得只剩文化”的生成挑战
人工智能·aigc·全栈
安达发公司27 分钟前
安达发|告别手工排产!车间排产软件成为中央厨房的“最强大脑”
大数据·人工智能·aps高级排程·aps排程软件·安达发aps·车间排产软件
公众号-架构师汤师爷27 分钟前
n8n工作流实战:从0到1打造公众号热点选题一键采集智能体(万字图文)
人工智能·agent·智能体·n8n
Baihai_IDP1 小时前
剖析大模型产生幻觉的三大根源
人工智能·面试·llm
DatGuy1 小时前
Week 26: 深度学习补遗:LSTM 原理与代码复现
人工智能·深度学习·lstm