[paddle] 非线性拟合问题的训练

利用paddlepaddle建立神经网络,模拟有限个数据的非线性拟合

本文仍然考虑 f ( x ) = sin ⁡ ( x ) x f(x)=\frac{\sin(x)}{x} f(x)=xsin(x) 函数在区间 [-10,10] 上固定数据的拟合。

python 复制代码
import paddle
import paddle.nn as nn
import numpy as np
import matplotlib.pyplot as plt

# 设置随机种子以确保结果的可重复性
paddle.seed(1)

# 生成数据集
x_data = (np.random.rand(500) * 20 - 10).astype('float32')  # 生成500个随机x值,范围在-10到10之间
y_data = np.sin(x_data) / x_data  # 生成y值
y_data = y_data.reshape(-1, 1)  # 将y_data转换为二维数组

# 定义模型,一个具有2个隐藏层的多层感知器
class MyModel(nn.Layer):
    def __init__(self):
        super(MyModel, self).__init__()
        self.hidden1 = nn.Linear(in_features=1, out_features=50)
        self.bn = nn.BatchNorm1D(num_features=50)
        self.hidden2 = nn.Linear(in_features=50, out_features=1)

    def forward(self, x):
        x = paddle.tanh(self.hidden1(x))
        x = self.bn(x)
        x = self.hidden2(x)
        return x

model = MyModel()

# 定义损失函数
loss_fn = nn.MSELoss()

# 设置优化器
optimizer = paddle.optimizer.Adam(learning_rate=0.01, parameters=model.parameters())

# 训练数据
train_data = paddle.to_tensor(x_data).unsqueeze(-1), paddle.to_tensor(y_data)

# 训练模型
epochs = 1000
for epoch in range(1, epochs + 1):
    loss = loss_fn(model(train_data[0]), train_data[1])
    loss.backward()
    optimizer.step()
    optimizer.clear_grad()
    if epoch % 100 == 0:
        print(f'Epoch {epoch}: Loss = {loss.numpy()}')

# 使用训练好的模型进行预测
y_pred = model(train_data[0]).numpy()

# 可视化结果
plt.scatter(x_data, y_data, label='True')
plt.scatter(x_data, y_pred, label='Predicted')
plt.legend()
plt.show()
相关推荐
清水白石0081 小时前
突破并行瓶颈:Python 多进程开销全解析与 IPC 优化实战
开发语言·网络·python
量子-Alex2 小时前
【大模型思维链】RAP中如何通过提示词将LLM改造为世界模型
人工智能·深度学习·机器学习
Lupino2 小时前
IoT 平台可编程化:基于 Pydantic Monty 构建工业级智能自动化链路
python
砚边数影3 小时前
模型持久化(二):从 KingbaseES 加载模型,实现离线预测
数据库·机器学习·kingbase·模型推理·数据库平替用金仓·金仓数据库
硅谷秋水3 小时前
多智体机器人系统(MARS)挑战的进展与创新
深度学习·机器学习·计算机视觉·语言模型·机器人·人机交互
清水白石0083 小时前
突破性能瓶颈:深度解析 Numba 如何让 Python 飙到 C 语言的速度
开发语言·python
癫狂的兔子3 小时前
【Python】【机器学习】K-MEANS算法
算法·机器学习·kmeans
yunhuibin5 小时前
AlexNet网络学习
人工智能·python·深度学习·神经网络
算法黑哥5 小时前
Sharpness-Aware Minimization (SAM,锐度感知最小化)是让损失曲面变平坦,还是引导参数至平坦区域
深度学习·神经网络·机器学习
索木木5 小时前
大模型训练CP切分(与TP、SP结合)
人工智能·深度学习·机器学习·大模型·训练·cp·切分