Pytorch 9

softmax多分类问题

python 复制代码
import torch
from torchvision import datasets
from torch.utils.data import DataLoader
import torch.nn.functional as F# 激活函数
import torch.optim as optim
# optim.SGD (随机梯度下降):最基础的优化算法,通过沿着梯度的反方向更新参数。

# optim.Adam (自适应矩估计):一种常用的自适应优化算法,结合了动量和 RMSprop 的优点。

# optim.RMSprop (均方根传播):一种自适应优化算法,可以根据梯度的历史信息调整学习率。

# optim.Adagrad (自适应梯度算法):另一种自适应优化算法,可以为每个参数分配不同的学习率。

softmax回归在pytorch里面已经封装了激活,所以最后一层不做激活

当你需要预测的时候可以使用with使pytorch不产生计算图

python 复制代码
model = Net()# softmax回归
def test():
    correct = 0
    total = 0
    with torch.no_grad():
        for data in test_loader:
            images, labels = data
            outputs = model(images)
            _, predicted = torch.max(outputs.data, dim=1) # dim = 1 列是第0个维度,行是第1个维度
            total += labels.size(0)
            correct += (predicted == labels).sum().item() # 张量之间的比较运算
相关推荐
万少1 天前
小龙虾(openclaw),轻松玩转自动发帖
前端·人工智能·后端
飞哥数智坊1 天前
openclaw 重大更新,真的懂我啊
人工智能
KaneLogger1 天前
AI 时代编程范式迁移的思考
人工智能·程序员·代码规范
飞哥数智坊1 天前
养虾记第2期:从“人工智障”到“赛博分身”,你的龙虾还缺这两个灵魂
人工智能
飞哥数智坊1 天前
龙虾虽香,小心扎手!官方点名后,我们该怎么“养虾”?
人工智能
yiyu07161 天前
3分钟搞懂深度学习AI:实操篇:卷积层
人工智能·深度学习
曲幽1 天前
数据库实战:FastAPI + SQLAlchemy 2.0 + Alembic 从零搭建,踩坑实录
python·fastapi·web·sqlalchemy·db·asyncio·alembic
字节架构前端1 天前
Skill再回首—深度解读Anthropic官方最新Skill白皮书
人工智能·agent·ai编程
冬奇Lab1 天前
OpenClaw 深度解析(八):Skill 系统——让 LLM 按需学习工作流
人工智能·开源·源码阅读