pytorch运行报错:CUDA out of memory

pytorch运行报错:CUDA out of memory

今天遇到问题 我的代码运行报这个错误:
RuntimeError: CUDA out of memory. Tried to allocate 594.00 MiB (GPU 0; 8.00 GiB total capacity; 6.84 GiB already allocated; 0 bytes free; 6.86 GiB reserved in total by PyTorch)

问题原因

CUDA out of memory,是计算过程中设置的内存超过了限制。

你的单次计算数据量太大了,改一改bach_size

修改

减小到原本数据量的一半。(2、4、8啥的都行)

运行

再次运行,发现还是报错,那就继续讲将你的BACH_SIZE除以2,重新训练

问题解决。

最近好忙,好久没有写修改问题的过程了。

如有帮助 点赞 收藏 关注!

相关推荐
极智视界12 小时前
目标检测数据集 - 自动驾驶场景驾驶员注意力不集中检测数据集下载
人工智能·目标检测·自动驾驶
亚马逊云开发者12 小时前
Serverless is all you need: 在亚马逊云科技上一键部署大模型API聚合管理平台OneHub
人工智能
人工智能训练12 小时前
Docker中Dify镜像由Windows系统迁移到Linux系统的方法
linux·运维·服务器·人工智能·windows·docker·dify
夏洛克信徒12 小时前
AI盛宴再启:Gemini 3与Nano Banana Pro掀起的产业革命
人工智能·神经网络·自然语言处理
背心2块钱包邮12 小时前
第24节——手搓一个“ChatGPT”
人工智能·python·深度学习·自然语言处理·transformer
执笔论英雄12 小时前
【大模型推理】小白教程:vllm 异步接口
前端·数据库·python
致Great12 小时前
Chatgpt三周年了:大模型三年发展的里程碑
人工智能·chatgpt·agent
databook12 小时前
Manim v0.19.1 发布啦!三大新特性让动画制作更丝滑
后端·python·动效
gaetoneai12 小时前
当OpenAI内部命名乱成“GPT-5.1a-beta-v3-rev2”,Gateone.ai 已为你筑起一道“多模态智能的稳定防线”。
人工智能·语音识别
23遇见12 小时前
ChatGPT 之后,AI 的下一步突破是什么
人工智能·chatgpt