Python----神经网络(基于DNN的风电功率预测)

一、基于DNN的风电功率预测

1.1、背景

在全球能源转型的浪潮中,风力发电因其清洁和可再生的特性而日益重要。然而,风力发电功率的波动性给电网的稳定运行和能源调度带来了挑战。准确预测风力发电机的功率输出,对于优化能源管理、提高电网可靠性以及促进风能的高效利用至关重要。传统的预测方法在应对风力发电固有的复杂性和非线性时存在局限,因此,利用深度学习等先进人工智能技术,从历史运行数据中学习并预测风功率,已成为一个重要的研究方向。

1.2、目标

旨在探索如何利用风机运行的历史数据,特别是风速、发电机转速和叶片角度等关键参数,构建一个深度学习模型来预测风力发电机的功率输出。通过对数据进行预处理、选择合适的模型架构、进行有效的训练和验证,并在独立的测试集上评估模型的预测性能,最终实现对风力发电机功率的准确预测,并可视化展示预测结果。

1.3、数据展示

二、数据准备与预处理

python 复制代码
class PowerData(Dataset):
    def __init__(self,path,input_len):
        super().__init__()
        # 从CSV文件读取数据
        self.data=pd.read_csv(path)
        # 定义输入序列的长度
        self.input_len=input_len
        # 将功率值限制在0到1500之间,处理异常值
        self.data['功率(kW)']=np.minimum(self.data['功率(kW)'],1500)
        # 初始化MinMaxScaler,用于将功率值归一化到[-1, 1]的范围
        self.scaler=MinMaxScaler(feature_range=(-1,1))
        # 对功率数据进行归一化处理并存储
        self.data['power_nomalized']=self.scaler.fit_transform(self.data['功率(kW)'].values.reshape(-1,1))

    # 返回数据集的长度,即可以生成多少个输入-输出对
    def __len__(self):
        return len(self.data)-self.input_len

    # 根据给定的索引返回一个样本
    def __getitem__(self, idx):
        # 定义输入序列的起始和结束索引
        start_idx=idx
        end_idx=idx+self.input_len
        # 获取输入特征序列
        feature=self.data['power_nomalized'].values[start_idx:end_idx]
        # 获取对应的目标值(下一个时间点的功率值)
        target=self.data['power_nomalized'].values[end_idx:end_idx+1]
        # 将特征和目标转换为PyTorch张量并返回
        return  torch.tensor(feature,dtype=torch.float32),torch.tensor(target,dtype=torch.float32)

# 创建PowerData数据集实例,指定数据文件路径和输入序列长度
power_dataset=PowerData('./A01.csv',input_len=6)
复制代码
Scaler之前:(tensor([327.0000, 327.0000, 252.6000, 211.2000, 211.2000, 159.0000]), tensor([184.2000]))
Scaler之后:(tensor([-0.5640, -0.5640, -0.6632, -0.7184, -0.7184, -0.7880]), tensor([-0.7544]))
python 复制代码
# 定义训练集、验证集和测试集的比例
train_ratio = 0.8
val_ratio = 0.1
test_ratio = 0.1
# 计算各个数据集的大小
train_size = int(train_ratio * len(power_dataset))
val_size = int(val_ratio * len(power_dataset))
test_size = len(power_dataset) - train_size - val_size # 确保测试集大小正确

# 创建训练集、验证集和测试集的Subset
train_dataset=Subset(power_dataset,list(range(len(power_dataset)))[:train_size])
val_dataset=Subset(power_dataset,list(range(len(power_dataset)))[train_size:train_size+val_size])
test_dataset=Subset(power_dataset,list(range(len(power_dataset)))[train_size+val_size:])

# 创建训练集、验证集和测试集的数据加载器
train_dataloader=DataLoader(train_dataset,batch_size=64,shuffle=True)
val_dataloader=DataLoader(val_dataset,batch_size=64,shuffle=False)
test_dataloader=DataLoader(test_dataset,batch_size=1,shuffle=False)

三、模型构建

python 复制代码
class DNN(nn.Module):
    def __init__(self,input_len=6,hidden_size=128,output_size=1):
        super().__init__()
        # 定义第一个线性层
        self.liner1=nn.Linear(input_len,hidden_size)
        # 定义第二个线性层(输出层)
        self.liner2=nn.Linear(hidden_size,output_size)

    # 定义模型的前向传播过程
    def forward(self,x):
        # 通过第一个线性层并应用ReLU激活函数
        x=F.relu(self.liner1(x))
        # 通过第二个线性层得到最终的预测值
        x=self.liner2(x)
        return x

# 创建DNN模型实例
model=DNN()

四、模型训练与验证

python 复制代码
# 定义损失函数为均方误差
cri=nn.MSELoss()
# 定义优化器为Adam,并设置学习率和权重衰减
optim=torch.optim.Adam(model.parameters(),lr=0.001,weight_decay=1e-5)
python 复制代码
# 开始训练模型
for epoch in range(1,21):
    # 设置模型为训练模式
    model.train()
    # 初始化每个epoch的总损失
    total_loss=0
    # 遍历训练数据加载器
    for batch_feature,batch_target in train_dataloader:
        # 使用模型进行预测
        y_pred=model(batch_feature)
        # 计算损失
        loss=cri(y_pred.squeeze(1),batch_target.view(-1))
        # 清空之前的梯度
        optim.zero_grad()
        # 反向传播计算梯度
        loss.backward()
        # 更新模型参数
        optim.step()
        # 累加批次损失
        total_loss+=loss
    # 计算平均训练损失
    train_loss=total_loss/len(train_dataloader)

    # 设置模型为评估模式
    model.eval()
    # 初始化验证集的总损失
    total_loss=0
    # 在不计算梯度的上下文中进行验证
    with torch.no_grad():
        # 遍历验证数据加载器
        for batch_feature,batch_target in val_dataloader:
            # 使用模型进行预测
            y_pred = model(batch_feature)
            # 计算损失
            loss = cri(y_pred.squeeze(1), batch_target.view(-1))
            # 累加批次损失
            total_loss += loss
        # 计算平均验证损失
        avg_loss = total_loss / len(val_dataloader)
    # 计算平均验证损失
    val_loss=total_loss/len(val_dataloader)
    # 打印每个epoch的训练损失和验证损失
    print(train_loss.item(),val_loss.item())

五、模型评估与结果可视化

python 复制代码
# 设置模型为评估模式
model.eval()
# 初始化预测值列表和真实值列表
pred_list=[]
target_list=[]
# 在不计算梯度的上下文中进行测试
with torch.no_grad():
    # 遍历测试数据加载器
    for batch_feature, batch_target in test_dataloader:
        # 使用模型进行预测
        y_pred = model(batch_feature)
        # 将预测值和真实值添加到列表中
        pred_list.append(y_pred.squeeze(1).item())
        target_list.append(batch_target.item())

# 将预测值和真实值反归一化到原始范围
pred_list=power_dataset.scaler.inverse_transform(np.array(pred_list).reshape(-1,1))
target_list=power_dataset.scaler.inverse_transform(np.array(target_list).reshape(-1,1))

# 绘制最后200个真实值和预测值的对比图
plt.plot(target_list[-200:], label="True values")
plt.plot(pred_list[-200:], label="Predict values")
# 设置x轴标签
plt.xlabel("Time")
# 设置y轴标签
plt.ylabel("Power")
# 显示图例
plt.legend()
# 显示图像
plt.show()

六、完整代码

python 复制代码
import matplotlib.pyplot as plt
import numpy as np
import torch
import torch.nn as nn
from torch.utils.data import  Dataset,DataLoader,Subset
import  pandas as pd
from sklearn.preprocessing import MinMaxScaler
import torch.nn.functional as F

# 定义用于加载电力数据的Dataset类
class PowerData(Dataset):
    def __init__(self,path,input_len):
        super().__init__()
        # 从CSV文件读取数据
        self.data=pd.read_csv(path)
        # 定义输入序列的长度
        self.input_len=input_len
        # 将功率值限制在0到1500之间,处理异常值
        self.data['功率(kW)']=np.minimum(self.data['功率(kW)'],1500)
        # 初始化MinMaxScaler,用于将功率值归一化到[-1, 1]的范围
        self.scaler=MinMaxScaler(feature_range=(-1,1))
        # 对功率数据进行归一化处理并存储
        self.data['power_nomalized']=self.scaler.fit_transform(self.data['功率(kW)'].values.reshape(-1,1))

    # 返回数据集的长度,即可以生成多少个输入-输出对
    def __len__(self):
        return len(self.data)-self.input_len

    # 根据给定的索引返回一个样本
    def __getitem__(self, idx):
        # 定义输入序列的起始和结束索引
        start_idx=idx
        end_idx=idx+self.input_len
        # 获取输入特征序列
        feature=self.data['power_nomalized'].values[start_idx:end_idx]
        # 获取对应的目标值(下一个时间点的功率值)
        target=self.data['power_nomalized'].values[end_idx:end_idx+1]
        # 将特征和目标转换为PyTorch张量并返回
        return  torch.tensor(feature,dtype=torch.float32),torch.tensor(target,dtype=torch.float32)

# 创建PowerData数据集实例,指定数据文件路径和输入序列长度
power_dataset=PowerData('./A01.csv',input_len=6)

# 定义训练集、验证集和测试集的比例
train_ratio = 0.8
val_ratio = 0.1
test_ratio = 0.1
# 计算各个数据集的大小
train_size = int(train_ratio * len(power_dataset))
val_size = int(val_ratio * len(power_dataset))
test_size = len(power_dataset) - train_size - val_size # 确保测试集大小正确

# 创建训练集、验证集和测试集的Subset
train_dataset=Subset(power_dataset,list(range(len(power_dataset)))[:train_size])
val_dataset=Subset(power_dataset,list(range(len(power_dataset)))[train_size:train_size+val_size])
test_dataset=Subset(power_dataset,list(range(len(power_dataset)))[train_size+val_size:])

# 创建训练集、验证集和测试集的数据加载器
train_dataloader=DataLoader(train_dataset,batch_size=64,shuffle=True)
val_dataloader=DataLoader(val_dataset,batch_size=64,shuffle=False)
test_dataloader=DataLoader(test_dataset,batch_size=1,shuffle=False)

# 定义一个简单的深度神经网络模型
class DNN(nn.Module):
    def __init__(self,input_len=6,hidden_size=128,output_size=1):
        super().__init__()
        # 定义第一个线性层
        self.liner1=nn.Linear(input_len,hidden_size)
        # 定义第二个线性层(输出层)
        self.liner2=nn.Linear(hidden_size,output_size)

    # 定义模型的前向传播过程
    def forward(self,x):
        # 通过第一个线性层并应用ReLU激活函数
        x=F.relu(self.liner1(x))
        # 通过第二个线性层得到最终的预测值
        x=self.liner2(x)
        return x

# 创建DNN模型实例
model=DNN()

# 定义损失函数为均方误差
cri=nn.MSELoss()
# 定义优化器为Adam,并设置学习率和权重衰减
optim=torch.optim.Adam(model.parameters(),lr=0.001,weight_decay=1e-5)

# 开始训练模型
for epoch in range(1,21):
    # 设置模型为训练模式
    model.train()
    # 初始化每个epoch的总损失
    total_loss=0
    # 遍历训练数据加载器
    for batch_feature,batch_target in train_dataloader:
        # 使用模型进行预测
        y_pred=model(batch_feature)
        # 计算损失
        loss=cri(y_pred.squeeze(1),batch_target.view(-1))
        # 清空之前的梯度
        optim.zero_grad()
        # 反向传播计算梯度
        loss.backward()
        # 更新模型参数
        optim.step()
        # 累加批次损失
        total_loss+=loss
    # 计算平均训练损失
    train_loss=total_loss/len(train_dataloader)

    # 设置模型为评估模式
    model.eval()
    # 初始化验证集的总损失
    total_loss=0
    # 在不计算梯度的上下文中进行验证
    with torch.no_grad():
        # 遍历验证数据加载器
        for batch_feature,batch_target in val_dataloader:
            # 使用模型进行预测
            y_pred = model(batch_feature)
            # 计算损失
            loss = cri(y_pred.squeeze(1), batch_target.view(-1))
            # 累加批次损失
            total_loss += loss
        # 计算平均验证损失
        avg_loss = total_loss / len(val_dataloader)
    # 计算平均验证损失
    val_loss=total_loss/len(val_dataloader)
    # 打印每个epoch的训练损失和验证损失
    print(train_loss.item(),val_loss.item())

# 设置模型为评估模式
model.eval()
# 初始化预测值列表和真实值列表
pred_list=[]
target_list=[]
# 在不计算梯度的上下文中进行测试
with torch.no_grad():
    # 遍历测试数据加载器
    for batch_feature, batch_target in test_dataloader:
        # 使用模型进行预测
        y_pred = model(batch_feature)
        # 将预测值和真实值添加到列表中
        pred_list.append(y_pred.squeeze(1).item())
        target_list.append(batch_target.item())

# 将预测值和真实值反归一化到原始范围
pred_list=power_dataset.scaler.inverse_transform(np.array(pred_list).reshape(-1,1))
target_list=power_dataset.scaler.inverse_transform(np.array(target_list).reshape(-1,1))

# 绘制最后200个真实值和预测值的对比图
plt.plot(target_list[-200:], label="True values")
plt.plot(pred_list[-200:], label="Predict values")
# 设置x轴标签
plt.xlabel("Time")
# 设置y轴标签
plt.ylabel("Power")
# 显示图例
plt.legend()
# 显示图像
plt.show()
相关推荐
用户83562907805112 分钟前
Python查找替换PDF文字:告别手动,拥抱自动化
后端·python
星哥说事19 分钟前
Python自学12 — 函数和模块
开发语言·python
GIS工具-gistools20211 小时前
ArcGIS Excalibur 的新功能
人工智能·arcgis
THMAIL1 小时前
深度学习从入门到精通 - 迁移学习实战:用预训练模型解决小样本难题
人工智能·python·深度学习·算法·机器学习·迁移学习
音视频牛哥1 小时前
AI+ 行动意见解读:音视频直播SDK如何加速行业智能化
人工智能·音视频·人工智能+·ai+ 行动意见·rtsp/rtmp 播放器·低空经济视频链路·工业巡检视频传输
roman_日积跬步-终至千里1 小时前
【软件架构设计(19)】软件架构评估二:软件架构分析方法分类、质量属性场景、软件评估方法发展历程
人工智能·分类·数据挖掘
和小胖11222 小时前
第一讲 Vscode+Python+anaconda 安装
python
和小胖11222 小时前
第二讲 Vscode+Python+anaconda 高阶环境配置
ide·vscode·python
镭眸2 小时前
因泰立科技:用激光雷达重塑智能工厂物流生态
大数据·人工智能·科技
阿豪Jeremy2 小时前
使用MS-SWIF框架对大模型进行SFT微调
人工智能