神经网络基础-神经网络补充概念-48-rmsprop

概念## 标题

RMSProp(Root Mean Square Propagation)是一种优化算法,用于在训练神经网络等机器学习模型时自适应地调整学习率,以加速收敛并提高性能。RMSProp可以有效地处理不同特征尺度和梯度变化,对于处理稀疏数据和非平稳目标函数也表现良好。

核心思想

RMSProp的核心思想是根据参数梯度的历史信息自适应地调整每个参数的学习率。具体来说,RMSProp使用指数加权移动平均(Exponential Moving Average,EMA)来计算参数的平方梯度的均值,并使用该平均值来调整学习率。

步骤

1初始化参数:初始化模型的参数。

2初始化均方梯度的移动平均:初始化一个用于记录参数平方梯度的指数加权移动平均变量,通常初始化为零向量。

3计算梯度:计算当前位置的梯度。

4计算均方梯度的移动平均:计算参数平方梯度的指数加权移动平均,通常使用指数加权平均公式。

python 复制代码
moving_average = beta * moving_average + (1 - beta) * gradient^2

其中,beta 是用于计算指数加权平均的超参数

5更新参数:根据均方梯度的移动平均和学习率,更新模型的参数。

python 复制代码
parameter = parameter - learning_rate * gradient / sqrt(moving_average + epsilon)

其中,epsilon 是一个小的常数,防止分母为零。

6重复迭代:重复执行步骤 3 到 5,直到达到预定的迭代次数(epochs)或收敛条件。

代码实现

python 复制代码
import numpy as np
import matplotlib.pyplot as plt

# 生成随机数据
np.random.seed(0)
X = 2 * np.random.rand(100, 1)
y = 4 + 3 * X + np.random.randn(100, 1)

# 添加偏置项
X_b = np.c_[np.ones((100, 1)), X]

# 初始化参数
theta = np.random.randn(2, 1)

# 学习率
learning_rate = 0.1

# RMSProp参数
beta = 0.9
epsilon = 1e-8
moving_average = np.zeros_like(theta)

# 迭代次数
n_iterations = 1000

# RMSProp优化
for iteration in range(n_iterations):
    gradients = 2 / 100 * X_b.T.dot(X_b.dot(theta) - y)
    moving_average = beta * moving_average + (1 - beta) * gradients**2
    theta = theta - learning_rate * gradients / np.sqrt(moving_average + epsilon)

# 绘制数据和拟合直线
plt.scatter(X, y)
plt.plot(X, X_b.dot(theta), color='red')
plt.xlabel('X')
plt.ylabel('y')
plt.title('Linear Regression with RMSProp Optimization')
plt.show()

print("Intercept (theta0):", theta[0][0])
print("Slope (theta1):", theta[1][0])
相关推荐
大佬,救命!!!3 分钟前
最新的python3.14版本下仿真环境配置深度学习机器学习相关
开发语言·人工智能·python·深度学习·机器学习·学习笔记·环境配置
工业机器视觉设计和实现8 分钟前
用caffe做个人脸识别
人工智能·深度学习·caffe
paperxie_xiexuo20 分钟前
从研究问题到分析初稿:深度解析PaperXie AI科研工具中数据分析模块在学术写作场景下的辅助逻辑与技术实现路径
人工智能·数据挖掘·数据分析
一水鉴天33 分钟前
整体设计 定稿 之9 拼语言工具设计之前 的 备忘录仪表盘(CodeBuddy)
人工智能·架构·公共逻辑
vvoennvv35 分钟前
【Python TensorFlow】 CNN-GRU卷积神经网络-门控循环神经网络时序预测算法(附代码)
python·神经网络·机器学习·cnn·gru·tensorflow
IT_陈寒1 小时前
Python性能提升50%:这5个隐藏技巧让你的代码快如闪电⚡
前端·人工智能·后端
高洁011 小时前
具身智能-普通LLM智能体与具身智能:从语言理解到自主行动 (2)
深度学习·算法·aigc·transformer·知识图谱
AI大模型学徒2 小时前
NLP基础(九)_N-gram模型
人工智能·自然语言处理·nlp·n-gram
极客BIM工作室2 小时前
理清 BERT 中 [CLS] 向量的核心逻辑:训练双向更新与推理作用不矛盾
人工智能·机器学习·bert