pytorch运行报错:CUDA out of memory

pytorch运行报错:CUDA out of memory

今天遇到问题 我的代码运行报这个错误:
RuntimeError: CUDA out of memory. Tried to allocate 594.00 MiB (GPU 0; 8.00 GiB total capacity; 6.84 GiB already allocated; 0 bytes free; 6.86 GiB reserved in total by PyTorch)

问题原因

CUDA out of memory,是计算过程中设置的内存超过了限制。

你的单次计算数据量太大了,改一改bach_size

修改

减小到原本数据量的一半。(2、4、8啥的都行)

运行

再次运行,发现还是报错,那就继续讲将你的BACH_SIZE除以2,重新训练

问题解决。

最近好忙,好久没有写修改问题的过程了。

如有帮助 点赞 收藏 关注!

相关推荐
数据知道3 分钟前
【Flask】一文掌握 Flask 基础用法
数据库·后端·python·flask·python web
Light606 分钟前
MCP协议:CAD设计的“AI大脑”革命——从图纸到智能决策的全链路跃迁
人工智能·工业4.0·mcp协议·cad智能化·ai设计自动化
鹿鸣天涯6 分钟前
智能世界2035:探索未知,跃见未来
人工智能
火星技术11 分钟前
【 AI 智能换装开源】
人工智能
zyplayer-doc15 分钟前
目录支持批量操作,文档增加可见范围、锁定功能,PDF查看优化,zyplayer-doc 2.5.8 发布啦!
数据库·人工智能·pdf·编辑器·飞书·石墨文档
Dandelion____z25 分钟前
AI 驱动业务的致命风险:如何用架构设计守住安全底线?
java·大数据·人工智能·spring boot·aigc·jboltai
黑客思维者33 分钟前
为什么大语言模型需要海量训练数据?
人工智能·语言模型·自然语言处理
Mr数据杨42 分钟前
【Gradio】Gradio 启动规避 Huggingface 代理问题
python·gradio
s***87271 小时前
【Python】网络爬虫——词云wordcloud详细教程,爬取豆瓣最新评论并生成各式词云
爬虫·python·信息可视化
north_eagle1 小时前
缓解电动汽车里程焦虑:一个简单的AI模型如何预测港口可用性
人工智能