机器学习 第一章

🧠 机器学习 第一章

一、什么是机器学习 (Machine Learning)

让计算机自己从数据中学习出规律,无需人手写规则

  • 输入: 特征 x
  • 输出: 标签 y
  • 学习目标: 学习出 f(x) 等价于 y

二、三大类型任务

类型 英文 特点 示例
回归 Regression 输出是连续值 房价预测
分类 Classification 输出是类别标签 图像识别
结构化学习 Structured Prediction 输出是结构 机器翻译、NER

三、模型核心公式

y = w x + b y = wx + b y=wx+b

符号 意义
x 输入特征
w 权重
b 偏置
y 预测值

四、Loss (损失函数)

用来衡量预测和真实值有多大差距

🔹 常用衡量:MSE (均方误)

L o s s = 1 n ∑ ( y i − y ^ i ) 2 Loss = \frac{1}{n} \sum (y_i - \hat{y}_i)^2 Loss=n1∑(yi−y^i)2

  • 输出越出误越小,Loss 越小

五、模型训练:梯度下降

🔹 目标:寻找 w、b 使 loss 最小

w = w − η ⋅ ∂ L ∂ w b = b − η ⋅ ∂ L ∂ b w = w - \eta \cdot \frac{\partial L}{\partial w} \ b = b - \eta \cdot \frac{\partial L}{\partial b} w=w−η⋅∂w∂L b=b−η⋅∂b∂L

  • 通过每次计算方向(导数)进行更新
  • 就是一步步往 Loss 地形最低点跑

六、向量化计算:NumPy 操作

  • x 是数组,包含所有样本
  • w * x + b 是一群预测值
  • y_pred - y:一群误差
  • np.mean() 就是对误差平方求均

七、神经网络公式构建

y = b + ∑ i c i ⋅ s i g m o i d ( b i + ∑ j w i j x j ) y = b + \sum_i c_i \cdot sigmoid(b_i + \sum_j w_{ij}x_j) y=b+i∑ci⋅sigmoid(bi+j∑wijxj)

  • 输入 x_j 经 w 和 b_i 进入 hidden layer
  • hidden 经 sigmoid 转换
  • hidden 和 c_i 相乘合并进入输出 y

八、激活函数 Activation Function

🔹 给神经元带来非线性能力,让网络可以拟合复杂函数

名称 特性 应用
Sigmoid S型,输出 0~1 合适二分类、概率输出
ReLU 负值滤掉,保留正值 现代深度网络主流
相关推荐
磊叔的技术博客2 分钟前
LLM 系列(六):模型推理篇
人工智能·面试·llm
爱分享的飘哥2 分钟前
【V6.0 - 听觉篇】当AI学会“听”:用声音特征捕捉视频的“情绪爽点”
人工智能·音视频
fzyz1239 分钟前
Windows系统下WSL从C盘迁移方案
人工智能·windows·深度学习·wsl
BIYing_Aurora11 分钟前
【IPMV】图像处理与机器视觉:Lec13 Robust Estimation with RANSAC
图像处理·人工智能·算法·计算机视觉
数据与人工智能律师18 分钟前
数字资产革命中的信任之锚:RWA法律架构的隐形密码
大数据·网络·人工智能·云计算·区块链
CHANG_THE_WORLD29 分钟前
封装一个png的编码解码操作
图像处理·人工智能·计算机视觉
赛丽曼43 分钟前
Assistant API的原理及应用
人工智能·chatgpt
Yo_Becky1 小时前
【PyTorch】PyTorch预训练模型缓存位置迁移,也可拓展应用于其他文件的迁移
人工智能·pytorch·经验分享·笔记·python·程序人生·其他
DeepSeek-大模型系统教程1 小时前
深入金融与多模态场景实战:金融文档分块技术与案例汇总
人工智能·ai·语言模型·程序员·大模型·大模型学习·大模型教程
xinxiangwangzhi_1 小时前
pytorch底层原理学习--PyTorch 架构梳理
人工智能·pytorch·架构