Pytorch 9

softmax多分类问题

python 复制代码
import torch
from torchvision import datasets
from torch.utils.data import DataLoader
import torch.nn.functional as F# 激活函数
import torch.optim as optim
# optim.SGD (随机梯度下降):最基础的优化算法,通过沿着梯度的反方向更新参数。

# optim.Adam (自适应矩估计):一种常用的自适应优化算法,结合了动量和 RMSprop 的优点。

# optim.RMSprop (均方根传播):一种自适应优化算法,可以根据梯度的历史信息调整学习率。

# optim.Adagrad (自适应梯度算法):另一种自适应优化算法,可以为每个参数分配不同的学习率。

softmax回归在pytorch里面已经封装了激活,所以最后一层不做激活

当你需要预测的时候可以使用with使pytorch不产生计算图

python 复制代码
model = Net()# softmax回归
def test():
    correct = 0
    total = 0
    with torch.no_grad():
        for data in test_loader:
            images, labels = data
            outputs = model(images)
            _, predicted = torch.max(outputs.data, dim=1) # dim = 1 列是第0个维度,行是第1个维度
            total += labels.size(0)
            correct += (predicted == labels).sum().item() # 张量之间的比较运算
相关推荐
Kel12 小时前
Claude Code 架构深度剖析:从终端输入到大模型响应的完整过程
人工智能·设计模式·架构
郝学胜-神的一滴12 小时前
Socket实战:从单端聊天到多用户连接的实现秘籍
服务器·开发语言·python·网络协议·pycharm
zzwq.13 小时前
线程池与进程池:concurrent.futures高效并发
python
taWSw5OjU13 小时前
从模型评估、梯度难题到科学初始化:一步步解析深度学习的训练问题
人工智能·深度学习
刘佬GEO13 小时前
【无标题】
网络·人工智能·搜索引擎·ai·语言模型
用户20187928316713 小时前
/export之一个程序员与AI的“破案笔记”
人工智能
Ricardo-Yang13 小时前
SCNP语义分割边缘logits策略
数据结构·人工智能·python·深度学习·算法
新缸中之脑13 小时前
微调BERT进行命名实体识别
人工智能·深度学习·bert
用户20187928316713 小时前
故事:小白的“无限循环”噩梦与大师的 /loop 魔法
人工智能
段小二13 小时前
Token 费用失控、VIP 用户体验一样烂:Context Engineering 才是关键
人工智能·后端