神经网络|(三)线性回归基础知识

【1】引言

前序学习进程中,已经对简单神经元的工作模式有所了解,这种二元分类的工作机制,进一步使用sigmoid()函数进行了平滑表达。相关学习链接为:

神经网络|(一)加权平均法,感知机和神经元-CSDN博客

神经网络|(二)sigmoid神经元函数-CSDN博客

实际上,上述表达模型的一个基本原则是:元素和对应的权重,线性相乘后再和阈值开关作对比,元素的综合影响在本质上是一个线性函数,类似于y=wx+b,这里把w理解为权重组成的矩阵,x理解为影响元素组成的矩阵,b就是阈值开关。

然而实际应用中,大多数时候我们获得的数据是y和x,权重w 和阈值开关-b躲在数据堆里。机器学习的目标之一就是通过大量的数据把k和b反推出来。

在数学上我们知道,如果是线性函数,知道自变量和因变量,反推斜率和解决过程叫做线性回归,线性回归常用的方法是最小二乘法。

【2】最小二乘法基础知识

最小二乘法的英文翻译是Least Squares Method,也就是最小平方法。

实际解释起来,需要用线性代数中的矩阵来辅助。

定义影响元素组成的矩阵x=xij(i=1,2...m,j=1,2...n),对应的元素权重组成的矩阵w=wij(i=1,2...n,j=1,2...m),写出来全是类似下方的模样:

++图1 自变量 x++

进行最小二乘法计算时,采用的计算公式为:

非常明确,yi是实际的已知量,xijwij+bi是将自变量xij和对应权重wij相乘再叠加阈值开关-bi后的"计算结果",这个计算结果越接近已知量yi,表明权重wij和阈值开关-bi给的越准。

所以在本质上,最小二乘法是查看函数拟合效果的基石。

【3】总结

了解了线性回归使用最小二乘法的基础知识。

相关推荐
得一录2 小时前
星图·微调试&全参数调试qwen3.1-B对比
人工智能·深度学习·机器学习·aigc·transformer
XLYcmy2 小时前
智能体大赛 技术架构 核心驱动层
人工智能·算法·机器学习·llm·prompt·agent·qwen
计算机编程-吉哥3 小时前
大数据毕业设计 基于大数据的计算机岗位招聘数据可视化分析系统 计算机毕业设计【项目+论文+安装调试】
大数据·机器学习·信息可视化·数据分析·毕业设计·计算机毕业设计选题·大数据毕业设计选题推荐
啊阿狸不会拉杆3 小时前
《机器学习导论》第 19 章 - 机器学习实验的设计与分析
人工智能·python·算法·决策树·机器学习·统计检验·评估方法
twilight_4694 小时前
机器学习与模式识别——Logistic算法
人工智能·算法·机器学习
陈天伟教授4 小时前
人工智能应用- 搜索引擎:02. 搜索引擎发展史
人工智能·深度学习·神经网络·游戏·搜索引擎·机器翻译
啊阿狸不会拉杆4 小时前
《机器学习导论》第 17 章 - 组合多学习器
人工智能·python·学习·算法·机器学习·聚类·集成学习
陈天伟教授4 小时前
人工智能应用- 搜索引擎:01. 互联网时代
人工智能·神经网络·搜索引擎·语言模型·自然语言处理·机器翻译
陈天伟教授4 小时前
人工智能应用- 搜索引擎:03. 网页定位
人工智能·神经网络·机器学习·搜索引擎·dnn
勾股导航5 小时前
灰狼优化算法GWO
人工智能·深度学习·机器学习