深度学习笔记——神经网络

本文为在拓尔思智能举办的训练营中学习内容的总结,部分内容摘自百度百科

个人在这里推荐一个好用的软件,Trae,主要是免费。

人工神经元是人工神经网络的基本单元。模拟生物神经元,人工神经元有1个或者多个输入(模拟多个树突或者多个神经元向该神经元传递神经冲动);对输入进行加权求和(模拟细胞体将神经信号进行积累和树突强度不同);对输入之和使用激活函数计算活性值(模拟细胞体产生兴奋或者抑制);输出活性值并传递到下一个人工神经元(模拟生物神经元通过轴突将神经冲动输入到下一个神经元)。

nn.Linear线性层

线性层(Linear Layer)又称全连接层(Full-connected Layer),其每个神经元与上一层所有神经元相连,实现对前一层的线性组合/线性变换。每个神经元都和前一层中的所有神经元相连,每个神经元的计算方式是对上一层的加权求和的过程。因此,线性层可以采用矩阵乘法来实现。

python 复制代码
# nn.Linear(in_features, out_features, bias=True)
layer = nn.Linear(20, 30)
x = torch.randn(128, 20)
y = layer(x)
y.shape

输出:

torch.Size([128, 30])

这个代码实现从20个特征点向30个的自由转移,也就是线性层的作用。

relu函数:

ReLU,全称为:Rectified Linear Unit,是一种人工神经网络中常用的激活函数,通常意义下,其指代数学中的斜坡函数,即f(x)=max(0,x)

他的应用其实就是把小于0的数值归零

激活函数:是对特征进行非线性的变化,赋予多层神经网络具有深度的意义。

参考了该文章一些内容:

深入理解ReLU函数(ReLU函数的可解释性)-CSDN博客

相关推荐
AAA_bo11 分钟前
liunx安装canda、python、nodejs、git,随后部署私有网页内容提取工具--JinaReader全攻略
linux·python·ubuntu·typescript·aigc·python3.11·jina
中屹指纹浏览器2 分钟前
2025技术解析:分布式指纹协同管理技术底层实现与规模化运营逻辑
经验分享·笔记
一个想打拳的程序员3 分钟前
无需复杂配置!用%20docker-webtop%20打造跨设备通用%20Linux%20桌面,加载cpolar远程访问就这么简单
java·人工智能·docker·容器
鹿鸣天涯4 分钟前
中科曙光scaleX国产万卡级AI集群系统
人工智能·搜索引擎
JoannaJuanCV7 分钟前
自动驾驶—CARLA仿真(20)manual_control demo
人工智能·机器学习·自动驾驶·carla
最晚的py9 分钟前
聚类的评估方法
人工智能·算法·机器学习
KG_LLM图谱增强大模型10 分钟前
【102页最新综述】AI智能体时代的记忆系统:形式、功能与知识图谱长记忆动态机制全景解析
大数据·人工智能·agent
jkyy201410 分钟前
从菜品识别到健康决策:AI技术如何赋能B端智慧饮食管理
大数据·人工智能·科技·健康医疗
风123456789~11 分钟前
【健康管理】第8章 身体活动基本知识 2/2
笔记·考证·健康管理
Coder个人博客12 分钟前
Apollo 9.0.0 自动驾驶系统整体架构分析
人工智能·架构·自动驾驶