Pytorch 9

softmax多分类问题

python 复制代码
import torch
from torchvision import datasets
from torch.utils.data import DataLoader
import torch.nn.functional as F# 激活函数
import torch.optim as optim
# optim.SGD (随机梯度下降):最基础的优化算法,通过沿着梯度的反方向更新参数。

# optim.Adam (自适应矩估计):一种常用的自适应优化算法,结合了动量和 RMSprop 的优点。

# optim.RMSprop (均方根传播):一种自适应优化算法,可以根据梯度的历史信息调整学习率。

# optim.Adagrad (自适应梯度算法):另一种自适应优化算法,可以为每个参数分配不同的学习率。

softmax回归在pytorch里面已经封装了激活,所以最后一层不做激活

当你需要预测的时候可以使用with使pytorch不产生计算图

python 复制代码
model = Net()# softmax回归
def test():
    correct = 0
    total = 0
    with torch.no_grad():
        for data in test_loader:
            images, labels = data
            outputs = model(images)
            _, predicted = torch.max(outputs.data, dim=1) # dim = 1 列是第0个维度,行是第1个维度
            total += labels.size(0)
            correct += (predicted == labels).sum().item() # 张量之间的比较运算
相关推荐
Hcoco_me6 分钟前
深度学习和神经网络之间有什么区别?
人工智能·深度学习·神经网络
霍格沃兹_测试11 分钟前
Ollama + Python 极简工作流
人工智能
资源开发与学习12 分钟前
AI智时代:一节课带你玩转 Cursor,开启快速入门与实战之旅
人工智能
强盛小灵通专卖员15 分钟前
闪电科创 SCI专业辅导
python·深度强化学习·研究生·ei会议·导师·sci期刊
跟橙姐学代码26 分钟前
自动化邮件发送的终极秘籍:Python库smtplib与email的完整玩法
前端·python·ipython
西安光锐软件26 分钟前
深度学习之损失函数
人工智能·深度学习
补三补四26 分钟前
LSTM 深度解析:从门控机制到实际应用
人工智能·rnn·lstm
astragin30 分钟前
神经网络常见层速查表
人工智能·深度学习·神经网络
嘀咕博客40 分钟前
文心快码Comate - 百度推出的AI编码助手
人工智能·百度·ai工具
cyyt1 小时前
深度学习周报(9.8~9.14)
人工智能·深度学习