CUDA编程入门系列(十一)CUDA程序优化技巧

优化原则:最大化并行执行

探索并行化:

优化线程块的规模

我们在设计CUDA程序的时候,要对线程块的个数进行考虑。因为GPU中流处理器SM的数量是相对固定的,所以我们应该尽量的将多个block放到同一个SM当中(至少保证每个SM中都有一个块),使得SM时刻处于活跃状态。但如果块所需资源过多,那么一个SM能够同时处理的块就比较少。

优化线程块的大小

因为SM是以warp为单位的,那么我们就要尽量的保证块的大小是32的倍数,使得所有的warp中所有的线程都处于活跃状态。如果块上的线程多的话,就可以隐藏一些内存的延迟。但是,如果一个块上的线程越多,每个线程拥有的寄存器大小就越小。

最大化Occupancy

基本策略

极小化CPU和GPU之间的数据传输

极大化使用共享内存

优化内存使用模式

全局内存:对齐与合并访问

共享内存:防止bank conflict

优化优先级

指令优化:原则

结论

相关推荐
人工智能培训几秒前
DNN案例一步步构建深层神经网络(3)
人工智能·深度学习·神经网络·大模型·dnn·具身智能·智能体
武当王丶也4 分钟前
从零构建基于 RAG 的 AI 对话系统:Ollama + Python + 知识库实战
人工智能·python
dixiuapp6 分钟前
设备维修记录系统,从数据沉淀到价值挖掘的跃迁
大数据·数据库·人工智能
Doctor_Strange_DML9 分钟前
一个简单有效的数据增强技术:data3
人工智能·计算机视觉
youngfengying20 分钟前
先验知识融入深度学习
人工智能·深度学习·先验知识
沃恩智慧21 分钟前
不确定性量化难题破解!贝叶斯+LSTM,革新时序预测!
人工智能·机器学习·lstm
whaosoft-14322 分钟前
51c视觉~合集56
人工智能
A林玖22 分钟前
【深度学习】目标检测
人工智能·深度学习·目标检测
代码洲学长22 分钟前
一、RNN基本概念与数学原理
人工智能·rnn·深度学习
A林玖24 分钟前
【深度学习】 循环神经网络
人工智能·rnn·深度学习