MATLAB深度学习(二)——如何训练一个卷积神经网路

2.1 基本概念

从数学的角度看,机器学习的目标是建立输入和输出的函数关系,相当于 y = F(x)的过程。F(x)就是我们所说的模型,对于使用者来说,这个模型就是一个黑箱,我们不知道其具体的结构,但是给定一个输出,就可以得到我们想要的结果。F(x)的获得,我们通过的是实验法啊,经过大量数据训练出来的,我们定义一个损失函数L(x),记录真实输出与模型输出的偏差,通过数据的迭代使得损失函数L(x)达到最小。

在机器学习中,我们需要理解概念的术语的解释:

|------|------------------|
| 训练样本 | 用于训练的数据 |
| 训练 | 用于训练样本特征统计和归纳的过程 |
| 模型 | 总结出的规律、标准 |
| 验证 | 用于验证数据集评价模型是否准确 |
| 超参数 | 学习速率、迭代层神经元个数等 |
| 参数 | 权重、偏置等 |
| 泛化 | 模型对新样本的适应力 |

过拟合和欠拟合是常见的现象。但是需要说明的是,数据没有过多的这种说法,所谓的过拟合,是模型在训练集上的表现过于优异,模拟考100分你考了100分,99分,但是验证集上,相当于实际考试中你考了40分,换一场考试,换一个新的数据,导致严重误判。欠拟合就是数据过少,模型无法归纳出共性,在训练集和测试集表现都很差。

2.2 实例需求与实现步骤

第一章里面我们用了工具箱来实现,这一章我们强化一下,用m文件编写,我们构建训练一个三层卷积神经网络,对输入的图像进行预测,计算器预测准确率和RMSE均方根误差。实现步骤具体参考第一章。

Matlab 复制代码
%% 步骤1:加载和显示图像数据
[XTrain,~,YTrain] = digitTrain4DArrayData;                       
[XValidation,~,YValidation] = digitTest4DArrayData;              

% 随机显示20幅训练图像
numTrainImages = numel(YTrain);                                  
figure
idx = randperm(numTrainImages,20);
for i = 1:numel(idx)
    subplot(4,5,i)    
    imshow(XTrain(:,:,:,idx(i)))
    drawnow
end

%% 步骤2:构建卷积神经网络
layers = [
    imageInputLayer([28 28 1])   %输入 像素为28*28,1通道                    

    convolution2dLayer(3,8,'Padding','same')   %卷积层1 卷积核大小为3*3,卷积核个数为8,卷积方式用0填充          
    batchNormalizationLayer      %归一化 加快训练网络时的收敛速度                           
    reluLayer                    %ReLU函数 激活函数                              
    averagePooling2dLayer(2,'Stride',2)         %平均池化  池化区域为2*2,步长为2              

    convolution2dLayer(3,16,'Padding','same')   %第二          
    batchNormalizationLayer                                        
    reluLayer                                                
    averagePooling2dLayer(2,'Stride',2)                        

    convolution2dLayer(3,32,'Padding','same')   %第三               
    batchNormalizationLayer                                    
    reluLayer                                               

    dropoutLayer(0.2)      %随机将20%的输入置0,防止过拟合                                     
    fullyConnectedLayer(1)         %全连接层输出个数为1                           
    regressionLayer ];         %用于预测结果                               

%% 步骤3:配置训练选项
miniBatchSize = 128;  % 设置小批量的大小为 128
validationFrequency = floor(numel(YTrain)/miniBatchSize);  % 计算验证频率,根据训练数据的数量除以 miniBatchSize 并取整
% trainingOptions 用于配置网络训练的选项
options = trainingOptions('sgdm', ...  % 选择随机梯度下降动量法(SGDM)作为优化器
    'MiniBatchSize',miniBatchSize, ...  % 指定每次训练的小批量大小为 miniBatchSize
    'MaxEpochs',30, ...  % 设置训练的最大轮数为 30
    'InitialLearnRate',0.001, ...  % 设置初始学习率为 0.001
    'LearnRateSchedule','piecewise', ...  % 学习率调整方式为分段调整
    'LearnRateDropFactor',0.1, ...  % 每次学习率下降时,下降的比例为 0.1
    'LearnRateDropPeriod',20, ...  % 每 20 个周期调整一次学习率
    'Shuffle','every-epoch', ...  % 每轮训练后随机打乱数据
    'ValidationData',{XValidation,YValidation}, ...  % 指定验证数据为 XValidation 和 YValidation
    'ValidationFrequency',validationFrequency, ...  % 设置验证的频率
    'Plots','training-progress', ...  % 启用训练进度的动态绘图
    'Verbose',true);  % 打印详细的训练信息
                                

%% 步骤4:训练网络
net = trainNetwork(XTrain,YTrain,layers,options); % X训练集 Y测试集 网络结构 训练设置

%% 步骤5:测试与评估
YPredicted = predict(net,XValidation);  % 使用训练好的网络对验证集数据进行预测
predictionError = YValidation - YPredicted;  % 计算预测误差(真实值减去预测值)

% 计算准确率
thr = 10;  % 设置误差阈值为 10
numCorrect = sum(abs(predictionError) < thr);  % 统计误差绝对值小于阈值的预测数量
numValidationImages = numel(YValidation);  % 获取验证集样本总数
Accuracy = numCorrect/numValidationImages;  % 准确率计算为预测正确的样本数除以总样本数

% 计算RMSE(均方根误差)的值
squares = predictionError.^2;  % 计算误差的平方
RMSE = sqrt(mean(squares));  % 求均值后开平方,得到均方根误差

训练选项设置,读者可以进行打开帮助查看,里面还有很多内容,可以进行自动补全。

因为我有GPU,这里就改成GPU进行训练了

相关推荐
Blossom.1182 小时前
使用Python和Scikit-Learn实现机器学习模型调优
开发语言·人工智能·python·深度学习·目标检测·机器学习·scikit-learn
scdifsn3 小时前
动手学深度学习12.7. 参数服务器-笔记&练习(PyTorch)
pytorch·笔记·深度学习·分布式计算·数据并行·参数服务器
DFminer3 小时前
【LLM】fast-api 流式生成测试
人工智能·机器人
郄堃Deep Traffic3 小时前
机器学习+城市规划第十四期:利用半参数地理加权回归来实现区域带宽不同的规划任务
人工智能·机器学习·回归·城市规划
海盗儿4 小时前
Attention Is All You Need (Transformer) 以及Transformer pytorch实现
pytorch·深度学习·transformer
GIS小天4 小时前
AI+预测3D新模型百十个定位预测+胆码预测+去和尾2025年6月7日第101弹
人工智能·算法·机器学习·彩票
阿部多瑞 ABU4 小时前
主流大语言模型安全性测试(三):阿拉伯语越狱提示词下的表现与分析
人工智能·安全·ai·语言模型·安全性测试
cnbestec4 小时前
Xela矩阵三轴触觉传感器的工作原理解析与应用场景
人工智能·线性代数·触觉传感器
不爱写代码的玉子4 小时前
HALCON透视矩阵
人工智能·深度学习·线性代数·算法·计算机视觉·矩阵·c#
sbc-study4 小时前
PCDF (Progressive Continuous Discrimination Filter)模块构建
人工智能·深度学习·计算机视觉