黑马AI大模型神经网络与深度学习课程笔记(个人记录、仅供参考)

目录

一、前言

二、Day01

1、深度学习_知识框架介绍

2、深度学习_简介

3、深度学习_特点

4、深度学习_常用模型介绍

5、深度学习_应用场景介绍

6、深度学习_发展史介绍

7、PyTorch框架简介

8、PyTorch_张量基本创建方式

9、PyTorch_创建全0_1_指定值张量

9、PyTorch_创建线性和随机张量

10、PyTorch_元素类型转换

11、PyTorch_创建张量方式总结

三、Day02

1、今日内容大纲介绍

2、张量和Numpy之间相互转换

3、张量的基本运算

4、张量点乘和矩阵乘法

5、张量的常用运算函数

6、张量的索引操作(上)

7、张量的索引操作(下)

8、上午内容回顾

9、张量的形状操作_reshape函数

10、张量的形状操作_unsqueeze和squeeze函数

11、张量的形状操作_transpose和premute函数

12、张量的形状操作_view和contiguous函数

13、张量的拼接操作

14、自动微分模块_介绍

15、自动微分模块案例_更新一次参数

16、自动微分模块案例_循环更新参数

四、Day03

1、自动微分小问题_detach函数

2、自动微分真实应用场景

3、PyTorch模拟线性回归_准备数据集

4、PyTorch模拟线性回归_模型训练

5、PyTorch模拟线性回归_可视化操作

[6、如何构建神经网络(neural network)](#6、如何构建神经网络(neural network))

7、神经网络_文字介绍

8、激活函数介绍

9、Sigmoid激活函数介绍

10、Tanh激活函数介绍

11、ReLu激活函数介绍

12、Softmax激活函数介绍

五、Day04

1、参数初始化_介绍

2、参数初始化_代码演示

3、神经网络_搭建流程介绍

4、神经网络_搭建代码实现

5、神经网络_模型训练

6、神经网络_总结

7、损失函数_多分类交叉熵损失介绍

8、损失函数_二分类交叉熵损失介绍

9、损失函数_MAE损失函数介绍

10、损失函数_MSE损失函数介绍

[11、损失函数_Smooth L1损失函数介绍](#11、损失函数_Smooth L1损失函数介绍)

12、梯度下降算法回顾

13、反向传播(了解)

六、Day05

1、梯度相关知识回顾

2、指数移动加权平均介绍

3、梯度下降优化方法_动量法

4、梯度下降优化方法_AdaGrad

5、梯度下降优化方法_RMSProp

6、拓展_PyCharm常用插件介绍

7、拓展_如何快速修改PyCharm主题

8、梯度下降优化方法_Adam

9、梯度下降优化算法_总结

10、学习率优化_背景介绍

11、学习率衰减策略_等间隔学习率衰减

12、学习率衰减策略_指定间隔学习率衰减

13、学习率衰减策略_指数间隔学习率衰减

14、学习率衰减策略_总结

15、正则化_dropout(随机失活)介绍

16、正则化_dropout(随机失活)代码演示

17、正则化_批量归一化(BN)介绍

18、正则化_批量归一化(BN)代码实现

19、ANN案例_手机价格分类_需求介绍

20、ANN案例_手机价格分类_准备数据集

七、Day06

1、ANN案例_手机价格分类_准备数据集(回顾)

2、ANN案例_手机价格分类_搭建神经网络

3、ANN案例_手机价格分类_模型训练

4、ANN案例_手机价格分类_模型调试

5、ANN案例_手机价格分类_调优思路

6、图像相关知识介绍

7、上午内容回顾

8、CNN概述介绍

9、卷积层_计算规则介绍

10、卷积层_填充(Padding)介绍

11、卷积层_步长(Stride)介绍

12、卷积层_多通道卷积计算

13、卷积层_多卷积核卷积计算

14、卷积层_特征图(FeatureMap)计算规则

15、卷积层_API介绍

16、池化层_介绍

17、池化层_API介绍

八、Day07

1、今日内容大纲介绍

2、CNN图像分类案例_准备数据集

3、CNN图像分类案例_搭建神经网络_思路分析

4、CNN图像分类案例_搭建神经网络_代码实现

5、CNN图像分类案例_模型训练

6、CNN图像分类案例_模型测试

7、CNN图像分类案例_优化及总结

8、RNN介绍

9、词嵌入层_解释

10、词嵌入层_API演示

11、RNN层(循环网络层)_简介

12、RNN层(循环网络层)_API演示

13、RNN_AI歌词生成器案例_构建词表

14、RNN_AI歌词生成器案例_构建数据集

15、RNN_AI歌词生成器案例_搭建神经网络

16、RNN_AI歌词生成器案例_模型训练

17、RNN_AI歌词生成器案例_模型测试


一、前言

整体来说整个课程还是不错的,但是我感觉像我这样速成的话知识容量还是太大了,特别是到后面综合起来感觉还是有点力不从心。老师讲解的还可以,不过还是老样子,有的点讲解的很清晰透彻但是有的点又讲的有些混乱。不过我也是第一次接触,没看过其他的课程,个人感觉作为基础入门还是很不错的,至于把知识点串联起来可能还得多复盘学习吧。特别是最后的案例我跟着敲完感觉还是有点理不清,后续我自己再复盘总结一下

二、Day01

1、深度学习_知识框架介绍

2、深度学习_简介

3、深度学习_特点

4、深度学习_常用模型介绍

5、深度学习_应用场景介绍

6、深度学习_发展史介绍

7、PyTorch框架简介

8、PyTorch_张量基本创建方式

9、PyTorch_创建全0_1_指定值张量

9、PyTorch_创建线性和随机张量

10、PyTorch_元素类型转换

11、PyTorch_创建张量方式总结

三、Day02

1、今日内容大纲介绍

2、张量和Numpy之间相互转换

3、张量的基本运算

4、张量点乘和矩阵乘法

5、张量的常用运算函数

6、张量的索引操作(上)

列表索引:那前面行的索引和后面列的索引进行匹配

7、张量的索引操作(下)

8、上午内容回顾

9、张量的形状操作_reshape函数

10、张量的形状操作_unsqueeze和squeeze函数

11、张量的形状操作_transpose和premute函数

12、张量的形状操作_view和contiguous函数

13、张量的拼接操作

stack()按照0维度拼接

stack()按照1维度拼接

stack()按照2维度拼接

14、自动微分模块_介绍

15、自动微分模块案例_更新一次参数

ppt中代码的x指的是权重w,y指的是损失函数loss,等下自己写代码会改一下字母

16、自动微分模块案例_循环更新参数

四、Day03

1、自动微分小问题_detach函数

2、自动微分真实应用场景

3、PyTorch模拟线性回归_准备数据集

4、PyTorch模拟线性回归_模型训练

5、PyTorch模拟线性回归_可视化操作

6、如何构建神经网络(neural network)

7、神经网络_文字介绍

8、激活函数介绍

9、Sigmoid激活函数介绍

这里后续是代码演示但是视频不全,我根据下一个视频中Tanh激活函数的代码返回来敲了一下

10、Tanh激活函数介绍

11、ReLu激活函数介绍

12、Softmax激活函数介绍

五、Day04

1、参数初始化_介绍

这里后面又说按md文档的来,fan_in是当前层接受的来自上一层的神经元。fan_out是当前层输出的神经元的数量,也就是当前层会传递给下一层的神经元的数量

2、参数初始化_代码演示

3、神经网络_搭建流程介绍

4、神经网络_搭建代码实现

5、神经网络_模型训练

6、神经网络_总结

7、损失函数_多分类交叉熵损失介绍

8、损失函数_二分类交叉熵损失介绍

9、损失函数_MAE损失函数介绍

10、损失函数_MSE损失函数介绍

11、损失函数_Smooth L1损失函数介绍

12、梯度下降算法回顾

13、反向传播(了解)

六、Day05

1、梯度相关知识回顾

就是拿之前的ppt过了一遍

2、指数移动加权平均介绍

3、梯度下降优化方法_动量法

4、梯度下降优化方法_AdaGrad

5、梯度下降优化方法_RMSProp

6、拓展_PyCharm常用插件介绍

7、拓展_如何快速修改PyCharm主题

看视频操作即可

8、梯度下降优化方法_Adam

9、梯度下降优化算法_总结

10、学习率优化_背景介绍

11、学习率衰减策略_等间隔学习率衰减

12、学习率衰减策略_指定间隔学习率衰减

13、学习率衰减策略_指数间隔学习率衰减

14、学习率衰减策略_总结

15、正则化_dropout(随机失活)介绍

16、正则化_dropout(随机失活)代码演示

17、正则化_批量归一化(BN)介绍

18、正则化_批量归一化(BN)代码实现

19、ANN案例_手机价格分类_需求介绍

20、ANN案例_手机价格分类_准备数据集

七、Day06

1、ANN案例_手机价格分类_准备数据集(回顾)

2、ANN案例_手机价格分类_搭建神经网络

3、ANN案例_手机价格分类_模型训练

4、ANN案例_手机价格分类_模型调试

5、ANN案例_手机价格分类_调优思路

6、图像相关知识介绍

我现在去掉坐标轴也是可以画出全白的图片的

7、上午内容回顾

8、CNN概述介绍

9、卷积层_计算规则介绍

10、卷积层_填充(Padding)介绍

11、卷积层_步长(Stride)介绍

12、卷积层_多通道卷积计算

13、卷积层_多卷积核卷积计算

14、卷积层_特征图(FeatureMap)计算规则

下面笔记中的W是原图大小,老师打错了。也可以按照上面的解释,W是输入图像大小,N是输出图像大小

15、卷积层_API介绍

16、池化层_介绍

卷积可以改变通道数,池化不会改变通道数

17、池化层_API介绍

八、Day07

1、今日内容大纲介绍

2、CNN图像分类案例_准备数据集

3、CNN图像分类案例_搭建神经网络_思路分析

4、CNN图像分类案例_搭建神经网络_代码实现

5、CNN图像分类案例_模型训练

我这里跑的还是比较慢的

6、CNN图像分类案例_模型测试

7、CNN图像分类案例_优化及总结

8、RNN介绍

9、词嵌入层_解释

10、词嵌入层_API演示

11、RNN层(循环网络层)_简介

12、RNN层(循环网络层)_API演示

我个人认为老师举的电影这个例子没有问题,但是他解释的有点混乱,最后我让ai帮我重新总结了一下,感觉ai给出的总结要合理一点(截图放到最后)

13、RNN_AI歌词生成器案例_构建词表

14、RNN_AI歌词生成器案例_构建数据集

15、RNN_AI歌词生成器案例_搭建神经网络

16、RNN_AI歌词生成器案例_模型训练

17、RNN_AI歌词生成器案例_模型测试

我这里是学着老师一样把轮数epochs改为了50,然后把学习率改为了0.001,等一会也是能跑出结果的,就是我配置不如老师跑的比较久一点

相关推荐
爱可生开源社区14 小时前
DBA 的未来?八位行业先锋的年度圆桌讨论
人工智能·dba
叁两17 小时前
用opencode打造全自动公众号写作流水线,AI 代笔太香了!
前端·人工智能·agent
前端付豪17 小时前
LangChain记忆:通过Memory记住上次的对话细节
人工智能·python·langchain
strayCat2325517 小时前
Clawdbot 源码解读 7: 扩展机制
人工智能·开源
程序员打怪兽17 小时前
详解Visual Transformer (ViT)网络模型
深度学习
王鑫星17 小时前
SWE-bench 首次突破 80%:Claude Opus 4.5 发布,Anthropic 的野心不止于写代码
人工智能
lnix17 小时前
当“大龙虾”养在本地:我们离“反SaaS”的AI未来还有多远?
人工智能·aigc
泉城老铁17 小时前
Dify知识库如何实现多关键词AND检索?
人工智能
阿星AI工作室17 小时前
给openclaw龙虾造了间像素办公室!实时看它写代码、摸鱼、修bug、写日报,太可爱了吧!
前端·人工智能·设计模式