简单回归问题实战

数据表:链接: https://pan.baidu.com/s/1sSz7F_yf_JeumXcP4EjE5g?pwd=753f 提取码: 753f

核心流程:

python 复制代码
import numpy as np
# 计算误差函数 points是数据集中数据的位置
def compute_error_for_line_given_points(b,w,points):
    totalError=0
    for i in range(0,len(points)):
        x=points[i,0]
        y=points[i,1]
        totalError+=(y-(w*x+b))**2          # 公式
    return totalError/float(len(points))    # 均方误差

# 梯度下降的参数更新
def step_gradient(b_current,w_current,points,learningRate):
    b_gradient=0
    w_gradient=0
    N=float(len(points))
    for i in range(0,len(points)):
        x=points[i,0]
        y=points[i,1]
        b_gradient+=(2*(w_current*x+b_current-y))/N     # loss函数对b求导  学习率的公式!
        w_gradient+=(2*(w_current*x+b_current-y)*x)/N   # loss函数对w求导
    new_b=b_current-learningRate*b_gradient
    new_w=w_current-learningRate*w_gradient
    return [new_b,new_w]

def gradient_descent_runner(points,starting_b,starting_w,learing_rate,num_iterations):
    b=starting_b
    w=starting_w

    min_error = float('inf')  # 初始化为正无穷大
    best_b = b
    best_w = w

    for i in range(num_iterations):
        b,w=step_gradient(b,w,np.array(points),learing_rate)
        error = compute_error_for_line_given_points(b, w, points)

        # 如果当前误差小于之前记录的最小误差,则更新最小误差和最佳参数
        if error < min_error:
            min_error = error
            best_b = b
            best_w = w
    return [b,w,best_b,best_w]

def run():
    points=np.genfromtxt("E:/first/project/resource/pytorch/simple-regression/data.csv",delimiter=",")
    learning_rate=0.0001
    initial_b=0
    initial_w=0
    num_iterations=1000
    print("Starting gradient descent at b={0},w={1},error={2}".format(initial_b,initial_w,compute_error_for_line_given_points(initial_b,initial_w,points)))
    [b,w,best_b,best_w]=gradient_descent_runner(points,initial_b,initial_w,learning_rate,num_iterations)
    print("After {0} interations b={1},w={2},error={3}".format(num_iterations,b,w,compute_error_for_line_given_points(b,w,points)))
    print("After {0} interations best_b={1},best_w={2},error={3}".format(num_iterations,best_b,best_w,compute_error_for_line_given_points(best_b,best_w,points)))
run()

当梯度下降法逐渐接近损失函数的最小值时,损失函数对参数的梯度(即导数)会趋近于零。这是因为在最小值点处,损失函数的变化率(即斜率)是最小的。因此,当 b_gradient 和 w_gradient 变得非常小时,更新量 learningRate * b_gradient 和 learningRate * w_gradient 也会变得非常小,导致 b 和 w 的变化几乎可以忽略不计。所以一般线性模型只有一个最低点的时候,会出现这种情况,找到最合适的b w后,后续迭代参数几乎不会变化

的变化几乎可以忽略不计。所以一般线性模型只有一个最低点的时候,会出现这种情况,找到最合适的b w后,后续迭代参数几乎不会变化

相关推荐
程序员清洒21 小时前
CANN模型剪枝:从敏感度感知到硬件稀疏加速的全链路压缩实战
算法·机器学习·剪枝
鸽芷咕21 小时前
DrissionPage 成 CANN 仓库爆款自动化工具:背后原因何在?
运维·python·自动化·cann
爱学习的阿磊21 小时前
使用Fabric自动化你的部署流程
jvm·数据库·python
少云清1 天前
【金融项目实战】7_接口测试 _代码实现接口测试(重点)
python·金融项目实战
深蓝电商API1 天前
爬虫IP封禁后的自动切换与检测机制
爬虫·python
m0_550024631 天前
持续集成/持续部署(CI/CD) for Python
jvm·数据库·python
液态不合群1 天前
推荐算法中的位置消偏,如何解决?
人工智能·机器学习·推荐算法
B站_计算机毕业设计之家1 天前
豆瓣电影数据采集分析推荐系统 | Python Vue Flask框架 LSTM Echarts多技术融合开发 毕业设计源码 计算机
vue.js·python·机器学习·flask·echarts·lstm·推荐算法
渣渣苏1 天前
Langchain实战快速入门
人工智能·python·langchain
lili-felicity1 天前
CANN模型量化详解:从FP32到INT8的精度与性能平衡
人工智能·python