【机器学习基础】nn.Dropout的用法

1.nn.Dropout用法一

一句话总结:Dropout的是为了防止过拟合而设置

  • 详解:
    1.Dropout是为了防止过拟合而设置的
    2.Dropout顾名思义有丢掉的意思
    3.nn.Dropout(p = 0.3) # 表示每个神经元有0.3的可能性不被激活
    4.Dropout只能用在训练部分而不能用在测试部分
    5.Dropout一般用在全连接神经网络映射层之后,如代码的nn.Linear(20, 30)之后

代码部分:

python 复制代码
class Dropout(nn.Module):
	def __init__(self):
		super(Dropout, self).__init__()
		self.linear = nn.Linear(20, 40)
		self.dropout = nn.Dropout(p = 0.3) # p=0.3表示下图(a)中的神经元有p = 0.3的概率不被激活

	def forward(self, inputs):
		out = self.linear(inputs)
		out = self.dropout(out)
		return out

net = Dropout()
# Dropout只能用在train而不能用在test	

2.nn.Dropout用法二

python 复制代码
import torch
import torch.nn as nn

a = torch.randn(4, 4)
print(a)
"""
tensor([[ 1.2615, -0.6423, -0.4142,  1.2982],
        [ 0.2615,  1.3260, -1.1333, -1.6835],
        [ 0.0370, -1.0904,  0.5964, -0.1530],
        [ 1.1799, -0.3718,  1.7287, -1.5651]])
"""
dropout = nn.Dropout()
b = dropout(a)
print(b)
"""
tensor([[ 2.5230, -0.0000, -0.0000,  2.5964],
        [ 0.0000,  0.0000, -0.0000, -0.0000],
        [ 0.0000, -0.0000,  1.1928, -0.3060],
        [ 0.0000, -0.7436,  0.0000, -3.1303]])
"""

由以上代码可知Dropout还可以将部分tensor中的值置为0

https://blog.csdn.net/weixin_47050107/article/details/122722516

相关推荐
aneasystone本尊几秒前
重温 Java 21 之分代式 ZGC
人工智能
深度之眼2 分钟前
“LSTM+时间序列异常检测”老树开新花!新玩法=发文密码,快来学呀!
人工智能·机器学习·idea
无敌少年小旋风3 分钟前
05-面试解析 Agent 理论 + 实践(Spring AI Alibaba)
人工智能·spring·面试
飞哥数智坊27 分钟前
看完 Cursor 2.0,我感觉国产 AI 编程又有希望了
人工智能·ai编程·cursor
wwlsm_zql31 分钟前
华为科大讯飞携手,低成本AI革新教育农业应用
人工智能·华为
IT_陈寒43 分钟前
Java 17 新特性实战:这5个隐藏功能让你的代码效率提升50%
前端·人工智能·后端
何玺1 小时前
豆包、元宝、Kimi等AI对话大模型会成为“带货”主流吗?
人工智能·chatgpt
Blossom.1181 小时前
把AI“灌”进奶瓶:1KB决策树让婴儿温奶器自己学会「恒温+计时」
人工智能·python·深度学习·算法·决策树·机器学习·计算机视觉
94甘蓝2 小时前
第 12 篇 Dify 入坑记录:database插件连接未关闭
数据库·人工智能·ai·dify·dify插件
mit6.8243 小时前
[nanoGPT] configurator.py | exec() & globals()
人工智能