《机器学习》- 第3章 线性模型

文章目录

  • [3.1 基本形式](#3.1 基本形式)
  • [3.2 线性回归](#3.2 线性回归)
  • [3.3 对数几率回归(逻辑回归)](#3.3 对数几率回归(逻辑回归))
  • [3.4 线性判别分析](#3.4 线性判别分析)
  • [3.5 多分类学习](#3.5 多分类学习)
  • [3.6 类别不平衡问题](#3.6 类别不平衡问题)

3.1 基本形式

问题描述:

函数形式:

向量形式:

许多功能更为强大的非线性模型可在线性模型的基础上引入层级结构或高维映射而得。

由于w直观表达了各属性在预测中的重要性,因此线性模型有很好的可解释性。

3.2 线性回归

一元线性回归

为了确定w和b的值,可以让均方误差最小化:

基于均方误差最小化来进行模型求解的方法称为最小二乘法。

在线性回归中,最小二乘法就是试图找到一条直线,使所有样本到直线上的欧式距离最小。

对w求导:

对b求导:


更一般的情形是多元线性回归:

多元线性回归

关系式:

目标函数:

目标函数求解:


对数模型

原型:

对数:

考虑一般情况:

3.3 对数几率回归(逻辑回归)

问题描述

分类问题,x的取值就是几种,y=比如0,1,2这样

考虑广义线性模型,只需要用一个单调可微的关系函数将分类任务的标记y做一个转换就可以了。

二分类任务

y={0,1}

关系函数

单位阶跃函数

单位跃阶函数不连续,于是有了单调可微的对数几率函数:

几率:

3.4 线性判别分析

LDA的思想非常朴素:给定训练样例集,设法将样例投影到一条直线上,使得同类样例的投影点尽可能接近、异类样例的投影点尽可能远离;在对新样本进行分类时,将其投影到同样的这条直线上,再根据投影点的位置来确定新样本的类别.图3.3给出了一个二维示意图.

类内散度矩阵:

类间散度矩阵:

最大化的目标:

重写为:

3.5 多分类学习

3.6 类别不平衡问题

相关推荐
天上的光25 分钟前
17.迁移学习
人工智能·机器学习·迁移学习
后台开发者Ethan32 分钟前
Python需要了解的一些知识
开发语言·人工智能·python
猫头虎1 小时前
猫头虎AI分享|一款Coze、Dify类开源AI应用超级智能体快速构建工具:FastbuildAI
人工智能·开源·prompt·github·aigc·ai编程·ai-native
重启的码农1 小时前
ggml 介绍 (6) 后端 (ggml_backend)
c++·人工智能·神经网络
重启的码农1 小时前
ggml介绍 (7)后端缓冲区 (ggml_backend_buffer)
c++·人工智能·神经网络
数据智能老司机1 小时前
面向企业的图学习扩展——图简介
人工智能·机器学习·ai编程
mit6.8242 小时前
[AI React Web] 包与依赖管理 | `axios`库 | `framer-motion`库
前端·人工智能·react.js
小阿鑫2 小时前
不要太信任Cursor,这位网友被删库了。。。
人工智能·aigc·cursor·部署mcp
说私域3 小时前
基于定制开发开源 AI 智能名片 S2B2C 商城小程序的热点与人工下发策略研究
人工智能·小程序
Moshow郑锴3 小时前
机器学习相关算法:回溯算法 贪心算法 回归算法(线性回归) 算法超参数 多项式时间 朴素贝叶斯分类算法
算法·机器学习·回归